ES2714278T3 - Sistema multicámara que usa óptica plegada - Google Patents

Sistema multicámara que usa óptica plegada Download PDF

Info

Publication number
ES2714278T3
ES2714278T3 ES13779716T ES13779716T ES2714278T3 ES 2714278 T3 ES2714278 T3 ES 2714278T3 ES 13779716 T ES13779716 T ES 13779716T ES 13779716 T ES13779716 T ES 13779716T ES 2714278 T3 ES2714278 T3 ES 2714278T3
Authority
ES
Spain
Prior art keywords
image
vision
sensor
sensors
fields
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES13779716T
Other languages
English (en)
Inventor
Todor Georgiev Georgiev
Thomas Wesley Osborne
Sergiu Radu Goma
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Application granted granted Critical
Publication of ES2714278T3 publication Critical patent/ES2714278T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/001Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
    • G02B13/0055Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing a special optical element
    • G02B13/0065Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing a special optical element having a beam-folding prism or mirror
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/41Extracting pixel data from a plurality of image sensors simultaneously picking up an image, e.g. for increasing the field of view by combining the outputs of a plurality of sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Abstract

Un sistema de captura de imágenes para capturar una pluralidad de imágenes parciales, para montarse en una imagen objetivo de una escena, el sistema que comprende: una pluralidad de sensores de imagen, teniendo cada uno de la pluralidad de sensores de imagen uno de una pluralidad de campos de visión, comprendiendo cada uno de la pluralidad de campos de visión una porción sustancialmente diferente de la escena; una pluralidad de montajes de lente, correspondiendo cada montaje de lente a uno de la pluralidad de sensores de imagen; una superficie primaria colocada para dirigir una porción de luz que comprenda uno de la pluralidad de campos de visión hacia uno de la pluralidad de montajes de lente; y una pluralidad de superficies secundarias, en la que cada uno de la pluralidad de montajes de lente se coloca entre la superficie primaria y uno de la pluralidad de superficies secundarias, de manera que cada uno de la pluralidad de superficies secundarias reciba al menos una porción de la luz de uno de la pluralidad de montajes de lente y dirija la luz recibida hacia uno correspondiente de la pluralidad de sensores de imagen, para enfocar una imagen parcial que corresponda a uno de la pluralidad de campos de visión, y en el que cada uno de la pluralidad de sensores de imagen captura una de la pluralidad de imágenes parciales.

Description

DESCRIPCION
Sistema multicamara que usa optica plegada
CAMPO TECNICO
[0001] La presente divulgacion se refiere a sistemas y procedimientos de formacion de imagenes que incluyen una matriz multicamara. En particular, la divulgacion se refiere a sistemas y procedimientos que permiten sistemas y dispositivos moviles de formacion de imagenes de bajo perfil mientras se mantiene o mejora la calidad de la imagen.
ANTECEDENTES
[0002] Muchos dispositivos moviles, tales como los telefonos moviles y los dispositivos informaticos de tablet, incluyen camaras que pueden hacerse funcionar por un usuario para capturar imagenes fijas y/o de video. Debido a que los dispositivos moviles estan disenados tipicamente para ser relativamente pequenos, puede ser importante disenar las camaras o los sistemas de formacion de imagenes para que sean lo mas finos posible con el fin de mantener un dispositivo movil de bajo perfil. En diversos dispositivos convencionales, el grosor del dispositivo movil se mantiene lo mas pequeno posible girando el sensor de imagen hacia un lado y usando dispositivos reflectantes para doblar los rayos hacia el sensor. Sin embargo, esta solucion en particular no es muy solida porque el ancho del sensor de imagen y el paso de pixeles pueden determinar la resolucion mas alta de la camara.
[0003] En otros dispositivos convencionales, el grosor del dispositivo movil se mantiene tan pequeno como sea posible acortando la distancia focal del sistema de formacion de imagenes. Sin embargo, pueden surgir diversos problemas cuando la distancia focal del sistema este disenada para ser lo mas corta posible. Por ejemplo, debido a que la distancia focal y el campo de vision del sistema estan inversamente relacionados, acortar la distancia focal puede aumentar el campo de vision hasta tal punto que la imagen puede pasar de una imagen natural a un campo de imagen de vista no natural, por ejemplo, en campos de vision de unos 60 grados o mas. Ademas, la reduccion de la lente, por ejemplo, la perdida de luz o brillo cerca de los bordes de una imagen en comparacion con el centro de una imagen, puede aumentar a medida que disminuye la distancia focal. Por tanto, a medida que se reduce la distancia focal de los sistemas de formacion de imagenes en los dispositivos moviles, la calidad de la imagen puede degradarse debido a una reduccion no deseada de la lente.
[0004] Ademas, la funcion de transferencia de modulacion (MTF) de los sistemas de formacion de imagenes en diversos dispositivos moviles puede producir una resolucion mas baja cerca de los bordes de la imagen en comparacion con el centro de la imagen, lo que se puede denominar reduccion de MTF. Debido a que la reduccion de MTF tambien puede estar relacionada inversamente con la distancia focal, una distancia focal reducida en los dispositivos moviles puede reducir la resolucion en los bordes de la imagen. Ademas, las distancias focales mas cortas pueden aumentar el angulo de incidencia del rayo principal de la lente, lo que tambien puede generar defectos indeseables, incluidos el aumento de la luz y la interferencia electrica entre los pixeles y un rendimiento menor de la MTF del sensor. Por consiguiente, puede ser ventajoso reducir el grosor de los sistemas de formacion de imagenes en los dispositivos moviles, mientras se mantiene o mejora la calidad de la imagen.
SUMARIO
[0005] Las matrices de sensores opticos plegados y las tecnicas de captura de imagenes descritas en el presente documento permiten la creacion de dispositivos de captura de imagenes de bajo perfil sin acortar la distancia focal ni disminuir la resolucion de la imagen en todo el campo de vision de la matriz de sensores. Al redirigir la luz hacia cada sensor en la matriz usando una superficie primaria y secundaria, y al colocar los montajes de lente usados para enfocar la luz entrante entre las superficies primaria y secundaria, la matriz de sensores se puede colocar sobre un sustrato plano perpendicular a los montajes de lente. La distancia focal mas larga hace posible implementar caracteristicas tales como el zoom optico e incorporar opticas mas complicadas que requieran mas espacio del que suele ofrecer la camara movil tradicional, tal como anadir mas elementos opticos. La agudeza de la camara, que se refiere a la resolucion angular de la camara y define que tan bien resuelve la camara los objetos lejanos, es proporcional a la distancia focal y por lo tanto se beneficia directamente de las camaras mas largas.
[0006] Algunos de los modos de realizacion pueden emplear un espejo central, por ejemplo, con multiples superficies, para dividir la luz entrante que comprenda la imagen objetivo en multiples porciones para que los sensores en la matriz la capturen. Otros modos de realizacion pueden emplear un prisma con multiples facetas, en el que cada faceta dirija una porcion de la luz que comprenda la imagen objetivo hacia un sensor en la matriz. Cada porcion de la luz dividida puede pasarse a traves de un montaje de lente y reflejarse desde una superficie colocada directamente por encima o por debajo de un sensor, de manera que cada sensor capture una porcion de la imagen. En algunas circunstancias, cada sensor en la matriz puede capturar una porcion de la imagen que se superponga ligeramente con las porciones capturadas por sensores vecinos en la matriz, y estas porciones pueden montarse en la imagen objetivo, por ejemplo, mediante tecnicas de combinacion de imagenes.
[0007] De acuerdo con un modo de realizacion, un sistema de captura de imagenes comprende una pluralidad de sensores de imagen, teniendo cada uno de la pluralidad de sensores de imagen uno de una pluralidad de campos de vision, comprendiendo cada uno de la pluralidad de campos de vision una porcion sustancialmente diferente de la escena; una pluralidad de montajes de lente, correspondiendo cada montaje de lente a uno de la pluralidad de sensores de imagen; una superficie primaria colocada para dirigir la luz que comprende al menos una porcion de la escena a traves de al menos uno de la pluralidad de montajes de lente; una pluralidad de superficies secundarias, en la que cada una de las superficies secundarias dirige al menos una porcion de la luz de uno de la pluralidad de montajes de lente hacia uno de la pluralidad de sensores de imagen, y en el que cada uno de la pluralidad de sensores de imagen captura una de la pluralidad de imagenes parciales, correspondiendo cada una de la pluralidad de imagenes parciales a uno de la pluralidad de campos de vision; y un modulo de procesamiento configurado para montar la pluralidad de imagenes parciales en la imagen objetivo.
[0008] El sistema de captura de imagenes puede comprender ademas un sustrato sustancialmente plano. La pluralidad de sensores de imagen, la pluralidad de montajes de lente, la superficie primaria y las superficies secundarias se pueden montar en el sustrato en una variedad de configuraciones adecuadas. La superficie primaria puede comprender una o mas superficies reflectantes y, en algunos modos de realizacion, puede ser un prisma que comprenda una o mas facetas configuradas para redirigir la luz entrante que comprenda la escena de la imagen objetivo.
[0009] De acuerdo con otro modo de realizacion, se proporciona un procedimiento para capturar una escena de la imagen objetivo, comprendiendo el procedimiento las etapas de proporcionar una pluralidad de sensores de imagen, teniendo cada uno de la pluralidad de sensores de imagen uno de una pluralidad de campos de vision, comprendiendo cada uno de la pluralidad de campos de vision una porcion sustancialmente diferente de la escena; proporcionar una pluralidad de montajes de lente, correspondiendo cada montaje de lente a uno de la pluralidad de sensores de imagen; comprendiendo la luz de direccion al menos una porcion de la escena hacia cada uno de la pluralidad de montajes de lente que usan al menos una superficie primaria; dirigir la luz desde cada uno de la pluralidad de montajes de lente hacia uno correspondiente de la pluralidad de sensores de imagen usando una pluralidad de superficies secundarias; capturar una pluralidad de imagenes parciales, en la que cada uno de la pluralidad de imagenes parciales se captura por uno de la pluralidad de sensores de imagen y corresponde a uno de la pluralidad de campos de vision; y montar la pluralidad de imagenes parciales en la imagen objetivo.
BREVE DESCRIPCION DE LOS DIBUJOS
[0010] Diversos aspectos de la captura de imagenes se ilustran a modo de ejemplo, y no de manera limitativa, en los dibujos adjuntos, en los que:
la FIG. 1A ilustra una vista lateral en seccion transversal de un modo de realizacion de un montaje de sensor optico plegado;
la FIG. 1B ilustra una vista superior de un modo de realizacion de campos de vision proyectados del montaje de sensor optico plegado de la FIG. 1A;
la FIG. 2 ilustra un diagrama de bloques de un modo de realizacion de un dispositivo de captura de imagenes; la FIG. 3A ilustra un diagrama de bloques de un modo de realizacion de una matriz de sensores opticos plegados; la FIG. 3B ilustra una vista en perspectiva de un modo de realizacion de la matriz de sensores opticos plegados de la FIG. 3A;
la FIG. 3C ilustra un diagrama esquematico de un modo de realizacion de campos de vision proyectados de la matriz de sensores opticos plegados de las FIGS. 3A-B;
la FIG. 4 ilustra una vista lateral en seccion transversal de un modo de realizacion de un montaje de sensor optico plegado que muestra la relacion angular de sus componentes;
la FIG. 5A ilustra una vista en perspectiva de otro modo de realizacion de una matriz de sensores opticos plegados; la FIG. 5B ilustra una vista en perspectiva de otro modo de realizacion mas de una matriz de sensores opticos plegados;
la FIG. 5C ilustra un diagrama esquematico de un modo de realizacion de campos de vision proyectados de las matrices de sensores opticos plegados de las FIGS. 5A-B;
la FIG. 6A ilustra una vista en perspectiva de otro modo de realizacion de una matriz de sensores opticos plegados; la FIG. 6B ilustra un diagrama esquematico de un modo de realizacion de campos de vision proyectados de la matriz de sensores opticos plegados de la FIG. 6A;
la FIG. 7 ilustra un diagrama de bloques de un modo de realizacion de una matriz de sensores opticos plegados en cascada;
la FIG. 8 ilustra una vista lateral en seccion transversal de otro modo de realizacion de una matriz de sensores opticos plegados; y
la FIG. 9 ilustra un modo de realizacion de un proceso de captura de imagenes opticas plegadas.
DESCRIPCION DETALLADA
[0011] Las implementaciones divulgadas en el presente documento proporcionan sistemas, procedimientos y aparatos para aplicaciones moviles de formacion imagenes. Por ejemplo, como se explica en el presente documento, puede ser deseable reducir el factor de forma de los dispositivos moviles mientras se mantiene o mejora la calidad de la imagen. Las implementaciones divulgadas en el presente documento se pueden usar en dispositivos moviles para reducir el grosor de los sistemas de formacion de imagenes empleando multiples sensores de imagen y/o multiples lentes en todo el campo de vision del sistema de formacion de imagenes. En diversas implementaciones, una matriz de camaras y/o de sensores de imagen pueden proporcionarse adyacentes a una o mas superficies reflectantes. La matriz de sensores puede capturar multiples imagenes superpuestas, que pueden combinarse para formar una sola imagen manteniendo una alta calidad de imagen y resolucion. Al espaciar multiples sensores lateralmente sobre un sustrato, o adyacentes de otra forma entre si en el sistema, se puede reducir la altura o el grosor total del sistema de formacion de imagenes. En diversas implementaciones, los sistemas divulgados pueden llamarse sistemas de optica plegada que incluyen longitudes de trayectoria optica relativamente largas. Al no reducir la distancia focal de manera sustancial, se pueden evitar las reducciones de la calidad de la imagen descritas anteriormente, mientras se mantiene un sistema de formacion de imagenes con una altura reducida.
[0012] Debe apreciarse que son posibles muchas otras implementaciones de los conceptos divulgados. Se pueden lograr diversas ventajas con las implementaciones divulgadas. Por ejemplo, el grosor total del dispositivo movil, incluido el sistema de formacion de imagenes, puede reducirse en comparacion con los sistemas de formacion de imagenes convencionales usados en los dispositivos moviles. Ademas, la resolucion de la imagen en el campo de vision de la matriz de sensores se puede mejorar y puede evitar la reduccion de la resolucion encontrada en las camaras tradicionales (por ejemplo, donde la resolucion puede disminuir en los bordes). Ademas, el uso de multiples lentes en todo el campo de vision del sistema puede aumentar la resolucion efectiva total en todo el campo de vision. Ademas, el uso de multiples lentes puede aumentar la distancia focal de la camara y por tanto aumentar la agudeza de la camara.
[0013] En diversas disposiciones, el campo de vision de cada camara puede superponerse para lograr propositos especificos, tal como permitir la capacidad de ajustar el enfoque despues del procesamiento posterior. Ademas, se pueden implementar camaras de alto rango dinamico para capturar dos imagenes simultaneas y luego combinarlas. Ademas, se puede implementar una aplicacion de enfoque automatico cambiando la distancia focal entre la lente y el sensor de cada camara en la matriz. Como se explica en el presente documento, se pueden lograr otras diversas ventajas e implementaciones.
[0014] Un experto en la tecnica reconocera que estos modos de realizacion pueden implementarse en hardware, software, firmware o en cualquier combinacion de los mismos. Los expertos en la tecnica entenderan que la informacion y las senales pueden representarse usando cualquiera de una variedad de tecnologias y tecnicas diferentes. Por ejemplo, los datos, las instrucciones, los comandos, la informacion, las senales, los bits, los simbolos y los chips que puedan haberse mencionado a lo largo de la descripcion anterior pueden representarse mediante tensiones, corrientes, ondas electromagneticas, campos o particulas magneticos, campos o particulas opticos o cualquier combinacion de los mismos.
[0015] En la siguiente descripcion, se dan detalles especificos para proporcionar una comprension exhaustiva de los ejemplos. Sin embargo, un experto en la tecnica entendera que pueden llevarse a la practica los ejemplos sin estos detalles especificos. Por ejemplo, los componentes/dispositivos electricos pueden mostrarse en diagramas de bloques con el fin de no oscurecer los ejemplos con detalles innecesarios. En otros casos, dichos componentes, otras estructuras y tecnicas se pueden mostrar en detalle para explicar mejor los ejemplos.
[0016] Ademas, se observa tambien que los ejemplos pueden describirse como un proceso, que se representa como un organigrama, un diagrama de flujo, un diagrama de estados finitos, un diagrama estructural o un diagrama de bloques. Aunque un diagrama de flujo puede describir las operaciones como un proceso secuencial, muchas de las operaciones pueden realizarse en paralelo o simultaneamente, y el proceso puede repetirse. Ademas, el orden de las operaciones puede reorganizarse. Un proceso se termina cuando sus operaciones se completan. Un proceso puede corresponder a un procedimiento, una funcion, un proceso, una subrutina, un subprograma, etc. Cuando un proceso se corresponde con una funcion de software, su finalizacion corresponde al retorno de la funcion a la funcion de llamada o a la funcion principal.
[0017] Con referencia ahora a las Figuras 1A-B, a continuacion se describira con mayor detalle un conjunto multisensor optico plegado 100 a modo de ejemplo. Como se muestra en la Figura 1A, un montaje de sensor 100 puede incluir sensores de imagen 105, 125, superficies reflectantes 110, 135, montajes de lente 115, 130, una superficie reflectante central 120, todo montado sobre un sustrato 150.
[0018] Los sensores de imagen 105, 125 pueden comprender, en ciertos modos de realizacion, un dispositivo de carga acoplada (CCD), un sensor semiconductor de oxido metalico complementario (CMOS), o cualquier otro dispositivo de deteccion de imagenes que reciba luz y genere datos de imagen en respuesta a la imagen recibida. Los sensores de imagen 105, 125 pueden obtener datos de imagen de fotografias fijas y tambien pueden proporcionar informacion sobre el movimiento en un flujo de video capturado. Los sensores 105 y 125 pueden ser sensores individuales o pueden representar matrices de sensores, tal como una matriz de 3x1. Sin embargo, como entendera un experto en la tecnica, se puede usar cualquier matriz adecuada de sensores en las implementaciones divulgadas.
[0019] Los sensores 105, 125 pueden montarse en el sustrato 150 como se muestra en la Figura 1A. En algunos modos de realizacion, todos los sensores pueden estar en un plano al montarse en el sustrato plano 150. El sustrato 150 puede ser cualquier material sustancialmente plano adecuado. La superficie reflectante central 120 y los montajes de lente 115, 130 tambien pueden montarse en el sustrato 150. Son posibles multiples configuraciones para montar una matriz o matrices de sensores, una pluralidad de montajes de lente y una pluralidad de superficies reflectantes o refractivas primaria y secundaria.
[0020] En algunos modos de realizacion, se puede usar una superficie reflectante central 120 para redirigir la luz desde una escena de la imagen objetivo hacia los sensores 105, 125. La superficie reflectante central 120 puede ser un espejo o una pluralidad de espejos, y puede ser plana o con la forma necesaria para redireccionar adecuadamente la luz entrante a los sensores de imagen 105, 125. Por ejemplo, en algunos modos de realizacion, la superficie reflectante central 120 puede tener un tamano y una forma de espejo para reflejar los rayos de luz entrantes a traves de los montajes de lente 115, 130 a los sensores 105, 125. La superficie reflectante central 120 puede dividir la luz que comprende la imagen objetivo en multiples porciones y dirigir cada porcion a un sensor diferente. Por ejemplo, un primer lado 122 de la superficie reflectante central 120 puede enviar una porcion de la luz correspondiente a un primer campo de vision 140 hacia el sensor izquierdo 105 mientras que un segundo lado 124 envia una segunda porcion de la luz correspondiente a un segundo campo de vision 145 hacia el sensor derecho 125. Debe apreciarse que los campos de vision 140, 145 juntos de los sensores de imagen cubren al menos la imagen objetivo.
[0021] En algunos modos de realizacion en los que los sensores receptores son cada uno una matriz de una pluralidad de sensores, la superficie reflectante central puede estar formada por multiples superficies reflectantes en angulo entre si para enviar una porcion diferente de la escena de la imagen objetivo hacia cada uno de las sensores. Cada sensor en la matriz puede tener un campo de vision sustancialmente diferente y, en algunos modos de realizacion, los campos de vision pueden superponerse. Ciertos modos de realizacion de la superficie reflectante central pueden tener superficies no planas complicadas para aumentar los grados de libertad al disenar el sistema de lente. Ademas, aunque la superficie central se analiza como una superficie reflectante, en otros modos de realizacion, la superficie central puede ser refractiva. Por ejemplo, la superficie central puede ser un prisma configurado con una pluralidad de facetas, donde cada faceta dirija una porcion de la luz que comprenda la escena hacia uno de los sensores.
[0022] Despues de reflejarse en la superficie reflectante central 120, la luz puede pasarse a traves de los montajes de lente 115, 130. Uno o mas montajes de lente 115, 130 pueden proporcionarse entre la superficie reflectante central 120 y los sensores 105, 125 y las superficies reflectantes 110, 135. Los montajes de lente 115, 130 pueden usarse para enfocar la porcion de la imagen objetivo que se dirija hacia cada sensor.
[0023] En algunos modos de realizacion, cada montaje de lente puede comprender una o mas lentes y un accionador para mover la lente entre una pluralidad de diferentes posiciones de lentes a traves de un alojamiento. El accionador puede ser un motor de bobina de voz (VCM), un sistema mecanico microelectronico (MEMS) o una aleacion de memoria de forma (SMA). El montaje de lente puede comprender ademas un controlador de lentes para controlar el accionador.
[0024] Las tecnicas tradicionales de enfoque automatico pueden implementarse cambiando la distancia focal entre la lente 115, 130 y los sensores correspondientes 105, 125 de cada montaje de sensor. En algunos modos de realizacion, esto puede lograrse moviendo un cilindro de lente. Otros modos de realizacion pueden ajustar el enfoque moviendo el espejo central hacia arriba o hacia abajo o ajustando el angulo del espejo con respecto al montaje de lente. Ciertos modos de realizacion pueden ajustar el enfoque moviendo los espejos laterales sobre cada sensor. Dichos modos de realizacion pueden permitir que el conjunto ajuste el enfoque de cada sensor individualmente. Ademas, es posible que algunos modos de realizacion cambien el enfoque de todo el conjunto de una vez, por ejemplo, colocando una lente como una lente liquida sobre todo el conjunto. En ciertas implementaciones, la fotografia computacional se puede usar para cambiar el punto focal de la matriz de camara.
[0025] Alrededor del espejo central 120 se pueden proporcionar multiples superficies reflectantes laterales, tales como las superficies reflectantes 110 y 135, opuestas a los sensores. Despues de pasar a traves de los montajes de lente, las superficies reflectantes laterales 110, 135 pueden reflejar la luz hacia abajo sobre los sensores planos 105, 125. Como se representa, el sensor 105 puede colocarse debajo de la superficie reflectante 110 y el sensor 125 puede colocarse debajo de la superficie reflectante 135. Sin embargo, en otros modos de realizacion, los sensores pueden estar por encima de las superficies laterales reflejadas, y las superficies laterales reflectantes pueden configurarse para reflejar la luz hacia arriba. Son posibles otras configuraciones adecuadas de las superficies reflectantes laterales y de los sensores en los que la luz de cada montaje de lente se redirija hacia los sensores. Ciertos modos de realizacion pueden permitir el movimiento de las superficies reflectantes laterales 110, 135 para cambiar el enfoque o el campo de vision del sensor asociado.
[0026] Como se muestra en la Figura 1B, el campo de vision 140, 145 de cada sensor puede dirigirse hacia el espacio del objeto por la superficie del espejo central 120 asociado con ese sensor. Se pueden emplear procedimientos mecanicos para inclinar los espejos y/o mover los prismas en la matriz para que el campo de vision de cada camara pueda dirigirse a diferentes ubicaciones en el campo del objeto. Esto se puede usar, por ejemplo, para implementar una camara de alto rango dinami
plenoptica. El campo de vision de cada sensor (o cada matriz de 3x1) puede proyectarse en el espacio del objeto, y cada sensor puede capturar una imagen parcial que comprenda una porcion de la escena objetivo de acuerdo con el campo de vision de ese sensor. En algunos modos de realizacion, los campos de vision 140, 145 para las matrices de sensores opuestos 105, 125 pueden superponerse por una cierta cantidad de 150. Para reducir la superposicion 150 y formar una sola imagen, se puede usar un proceso de combinacion como se describe a continuacion para combinar las imagenes de las dos matrices de sensores opuestos 105, 125. Ciertos modos de realizacion del proceso de combinacion pueden emplear la superposicion 150 para identificar caracteristicas comunes al combinar las imagenes parciales. Despues de combinar las imagenes superpuestas, la imagen combinada puede recortarse a una relacion de aspecto deseada, por ejemplo 4:3 o 1:1, para formar la imagen final.
[0027] La Figura 2 representa un diagrama de bloques de alto nivel de un dispositivo 200 que tiene un conjunto de componentes que incluye un procesador de imagenes 220 vinculado a uno o mas montajes de sensor de imagen 215an. El procesador de imagenes 220 tambien esta en comunicacion con una memoria de trabajo 205, una memoria 230 y un procesador de dispositivo 250, que a su vez esta en comunicacion con el almacenamiento 210 y la pantalla electronica 225.
[0028] El dispositivo 200 puede ser un telefono movil, una camara digital, una tablet, un asistente digital personal o similar. Hay muchos dispositivos informaticos portatiles en los que proporcionaria ventajas un sistema de formacion de imagenes de grosor reducido tal como se describe en el presente documento. El dispositivo 200 tambien puede ser un dispositivo informatico estacionario o cualquier dispositivo en el que un sistema de formacion de imagenes finas seria ventajoso. Una pluralidad de aplicaciones puede estar disponible para el usuario en el dispositivo 200. Estas aplicaciones pueden incluir aplicaciones tradicionales fotograficas y de video, formacion de imagenes de alto rango dinamico, fotos y videos panoramicos, o formacion de imagenes estereoscopicas tales como imagenes 3D o video 3D.
[0029] El dispositivo de captura de imagenes 200 incluye los montajes de sensor de imagen 215a-n para capturar imagenes externas. Los montajes de sensor de imagen 215a-n pueden incluir un sensor, un montaje de lente y una superficie reflectante o refractiva principal y secundaria para redirigir una porcion de una imagen objetivo a cada sensor, como se analizo anteriormente con respecto a la Figura 1A. En general, se pueden usar N montajes de sensor de imagen 215a-n, donde N > 2. Por tanto, la imagen objetivo se puede dividir en N porciones en las que cada sensor de los N montajes de sensor capture una porcion de la imagen objetivo de acuerdo con el campo de vision de ese sensor. Sin embargo, algunos modos de realizacion pueden emplear solamente un montaje de sensor de imagen, y se entendera que los montajes de sensor de imagen 215a-n pueden comprender cualquier numero de montajes de sensor de imagen adecuados para una implementacion del dispositivo de formacion de imagenes opticas plegadas descrito en el presente documento. El numero de sensores puede aumentarse para lograr alturas z inferiores del sistema, como se analiza con mas detalle a continuacion con respecto a la Figura 4, o para satisfacer las necesidades de otros propositos, tal como tener campos de vision superpuestos similares a los de una camara plenoptica, que puede permitir la capacidad de ajustar el enfoque de la imagen despues del procesamiento posterior. Otros modos de realizacion pueden tener una configuracion adecuada de superposicion de campo de vision para camaras de alto rango dinamico que permitan capturar dos imagenes simultaneas y luego combinarlas. Los montajes de sensor de imagen 215a-n pueden estar acoplados al procesador de camara 220 para transmitir la imagen capturada al procesador de imagenes 220.
[0030] El procesador de imagenes 220 puede configurarse para realizar diversas operaciones de procesamiento en los datos de imagenes recibidos que comprenden N porciones de la imagen objetivo con el fin de generar una imagen combinada de alta calidad, como se describira con mas detalle a continuacion. El procesador de imagenes 220 puede ser una unidad de procesamiento de uso general o un procesador especialmente disenado para aplicaciones de formacion de imagenes. Entre los ejemplos de operaciones de procesamiento de imagenes, se incluyen recorte, escalado (por ejemplo, a una resolucion diferente), combinacion de imagenes, conversion de formato de imagen, interpolacion de color, procesamiento de color, filtrado de imagen (por ejemplo, filtrado de imagen espacial), defecto de lente o correccion de defecto, etc. El procesador de imagenes 220 puede, en algunos modos de realizacion, comprender una pluralidad de procesadores. Ciertos modos de realizacion pueden tener un procesador dedicado a cada sensor de imagen. El procesador de imagenes 220 puede ser uno o mas procesadores de senales de imagen (ISP) dedicados o una implementacion de software de un procesador.
[0031] Como se muestra, el procesador de imagenes 220 esta conectado a una memoria 230 y a una memoria de trabajo 205. En el modo de realizacion ilustrado, la memoria 230 almacena el modulo de control de captura 235, el modulo de combinacion de imagenes 240 y el sistema operativo 245. Estos modulos incluyen instrucciones que configuran el procesador de imageries 220 del procesador de dispositivo 250 para realizar diversas tareas de procesamientos de imageries y de gestion de dispositivos. La memoria de trabajo 205 puede usarse por el procesador de imagenes 220 para almacenar un conjunto de trabajo de instrucciones de procesador contenidas en los modulos de la memoria 230. De forma alternativa, la memoria de trabajo 205 tambien puede usarse por el procesador de imagenes 220 para almacenar datos dinamicos creados durante el funcionamiento del dispositivo 200.
[0032] Como se menciono anteriormente, el procesador de imagenes 220 esta configurado por varios modulos almacenados en las memorias. El modulo de control de captura 235 puede incluir instrucciones que configuren el procesador de imagenes 220 para ajustar la posicion de enfoque de los montajes de sensor de imagen 2l5a-n. El modulo de control de captura 235 puede incluir ademas instrucciones que controlen las funciones generales de captura de imagenes del dispositivo 200. Por ejemplo, el modulo de control de captura 235 puede incluir instrucciones que llamen a subrutinas para configurar el procesador de imagenes 220 para capturar datos de imagenes en bruto de una escena de imagen objetivo usando los montajes de sensor de imagen 215a-n. El modulo de control de captura 235 puede llamar luego al modulo de combinacion de imagenes 240 para realizar una tecnica de combinacion en las N imagenes parciales capturadas por los montajes de sensor 215a-n y enviar una imagen objetivo combinada y recortada al procesador de imagenes 220. El modulo de control de captura 235 tambien puede llamar al modulo de combinacion de imagen 240 para realizar una operacion de combinacion en datos de imagen en bruto con el fin de emitir una imagen de vista previa de una escena que se vaya a capturar, y para actualizar la imagen de vista previa en ciertos intervalos de tiempo o cuando cambie la escena en los datos de la imagen en bruto.
[0033] El modulo de combinacion de imagenes 240 puede comprender instrucciones que configuren el procesador de imagenes 220 para realizar tecnicas de combinacion y recorte en datos de imagenes capturadas. Por ejemplo, cada uno de los N sensores 215a-n puede capturar una imagen parcial que comprenda una porcion de la imagen objetivo de acuerdo con el campo de vision de cada sensor. Los campos de vision pueden compartir areas de superposicion, como se describio anteriormente con respecto a la Figura 1B y a continuacion con respecto a las Figuras 3C, 4C, 5B y 6B. Con el fin de emitir una unica imagen objetivo, el modulo de combinacion de imagenes 240 puede configurar el procesador de imagenes 220 para combinar las multiples N imagenes parciales para producir una imagen objetivo de alta resolucion. La generacion de imagenes de destino se puede producir a traves de tecnicas conocidas de combinacion de imagenes. Se pueden encontrar ejemplos de combinacion de imagenes en el numero de solicitud de patente de los EE. UU: 11/623.050 (Docket 060170) que se incorpora por la presente como referencia en su totalidad.
[0034] Por ejemplo, el modulo de combinacion de imagenes 240 puede incluir instrucciones para comparar las areas de superposicion a lo largo de los bordes de las N imagenes parciales para las caracteristicas coincidentes con el fin de determinar la rotacion y la alineacion de las N imagenes parciales entre si. Debido a la rotacion de imagenes parciales y/o a la forma del campo de vision de cada sensor, la imagen combinada puede formar una forma irregular. Por lo tanto, despues de alinear y combinar las N imagenes parciales, el modulo de combinacion de imagenes 240 puede llamar a subrutinas que configuren el procesador de imagenes 220 para recortar la imagen combinada a una forma y relacion de aspecto deseadas, por ejemplo, un rectangulo de 4:3 o un cuadrado de 1:1. La imagen recortada se puede enviar al procesador de dispositivo 250 para visualizarse en la pantalla 225 o para guardarse en el almacenamiento 210.
[0035] El modulo de sistema operativo 245 configura el procesador de imagenes 220 para gestionar la memoria de trabajo 205 y los recursos de procesamiento del dispositivo 200. Por ejemplo, el modulo del sistema operativo 245 puede incluir controladores de dispositivos para gestionar recursos de hardware tales como los montajes de sensor de imagen 215a-n. Por lo tanto, en algunos modos de realizacion, las instrucciones contenidas en los modulos de procesamiento de imagenes analizados anteriormente pueden no interactuar directamente con estos recursos de hardware, sino interactuar en su lugar a traves de subrutinas estandar o de API ubicadas en el componente de sistema operativo 270. Las instrucciones dentro del sistema operativo 245 pueden interactuar luego directamente con estos componentes de hardware. El modulo de sistema operativo 245 puede configurar ademas el procesador de imagenes 220 para compartir informacion con el procesador de dispositivo 250.
[0036] El procesador de dispositivo 250 puede configurarse para controlar la visualizacion 225 para visualizar la imagen capturada, o una vista previa de la imagen capturada, a un usuario. La pantalla 225 puede ser externa al dispositivo de formacion de imagenes 200 o puede formar parte del dispositivo de formacion de imagenes 200. La pantalla 225 tambien puede configurarse para proporcionar un buscador de vistas que visualice una imagen de vista previa para su uso antes de capturar una imagen, o puede configurarse para visualizar una imagen capturada almacenada en la memoria o recientemente capturada por el usuario. La pantalla 225 puede comprender una pantalla LCD o LED, y puede implementar tecnologias sensibles al tacto.
[0037] El procesador de dispositivo 250 puede escribir datos en el modulo de almacenamiento 210, por ejemplo, datos que representen las imagenes capturadas. Mientras que el modulo de almacenamiento 210 se representa graficamente como un dispositivo de disco tradicional, los expertos en la tecnica entenderan que el modulo de almacenamiento 210 se puede configurar como cualquier dispositivo de almacenamiento. Por ejemplo, el modulo de almacenamiento 210 puede incluir una unidad de disco, tal como una unidad de disco flexible, una unidad de disco duro, una unidad de disco optico o una unidad de disco magneto-optico, o una memoria de estado solido tal como una memoria FLASH, RAM, ROM y/o EEPROM. El modulo de almacenamiento 210 tambien puede incluir multiples unidades de memoria, y cualquiera de las unidades de memoria puede configurarse para estar dentro del dispositivo de captura de imagenes 200, o puede ser externo al dispositivo de captura de imageries 200. Por ejemplo, el modulo de almacenamiento 210 puede incluir una memoria ROM que contenga instrucciones del programa del sistema almacenadas dentro del dispositivo de captura de imagenes 200. El modulo de almacenamiento 210 tambien puede incluir tarjetas de memoria o memorias de alta velocidad configuradas para almacenar imagenes capturadas que pueden ser extraibles de la camara.
[0038] Aunque la Figura 2 representa un dispositivo que tiene componentes independientes para incluir un procesador, un sensor de imagen y la memoria, un experto en la tecnica reconocera que estos componentes independientes se pueden combinar de varias formas para lograr objetivos de diseno particulares. Por ejemplo, en un modo de realizacion alternativo, los componentes de memoria pueden combinarse con componentes de procesador para ahorrar costes y mejorar el rendimiento.
[0039] Adicionalmente, aunque la Figura 2 ilustra dos componentes de memoria, incluyendo el componente de memoria 230 que comprende varios modulos y una memoria independiente 205 que comprende una memoria de trabajo, un experto en la tecnica reconocera varios modos de realizacion que utilizan diferentes arquitecturas de memoria. Por ejemplo, un diseno puede utilizar memoria ROM o RAM estatica para el almacenamiento de instrucciones del procesador que implementen los modulos contenidos en la memoria 230. Las instrucciones del procesador pueden cargarse en la RAM para facilitar la ejecucion mediante el procesador de imagenes 220. Por ejemplo, la memoria de trabajo 205 puede comprender memoria RAM, con instrucciones cargadas en la memoria de trabajo 205 antes de la ejecucion mediante el procesador 220.
[0040] Volviendo a las Figuras 3A-C, se describira con mas detalle un modo de realizacion de una matriz de sensores opticos plegados 300. La matriz 300 comprende dos filas 3x1 de montajes de sensor y una superficie de redireccion de luz central 335, por ejemplo, un espejo. Como se muestra en la Figura 1 A, los montajes de sensor A-F pueden incluir cada uno un sensor de imagen, un montaje de lente y una superficie reflectante secundaria. Algunos modos de realizacion de la configuracion de la matriz de sensores 300 pueden tener un campo de vision de 82 grados.
[0041] Como se ilustra en las Figuras 3A y 3B, el montaje de sensor A 305, el montaje de sensor B 310 y el montaje de sensor C 315 estan alineados en paralelo entre si adyacentes a lo largo de un primer eje 301 en un lado 337 del espejo central 335. El montaje de sensor D 320, el montaje de sensor E 325 y el montaje de sensor F 330 estan alineados paralelos entre si a lo largo de un segundo eje 302 en el lado opuesto 338 del espejo central 335. Los primer y segundo ejes estan alineados en paralelo a una linea central de simetria 336 del espejo central 335. Aunque, como se muestra, hay un espacio uniforme entre cada montaje de sensor en un eje, la cantidad de este espacio es variable, y algunos modos de realizacion pueden disponer los sensores sin espacio entre ellos, por ejemplo, cortando los sensores como un grupo de una oblea de silicio.
[0042] La Figura 3B ilustra una vista en perspectiva del espejo central 335 que visualiza tres superficies reflejadas 337, 338 y 339 distintas. La superficie reflejada 337 redirige la luz que comprende una porcion de la imagen objetivo hacia el montaje de sensor 320. Esta porcion de la imagen objetivo corresponde al campo de vision del sensor 320. La superficie reflejada 338 redirige otra porcion de la imagen objetivo hacia el montaje de sensor 325, y la superficie reflejada 339 redirige una tercera porcion de la imagen objetivo hacia el montaje de sensor 330. Aunque no se muestra en la vista ilustrada en la Figura 3B, el lado opuesto del espejo central comprende tres superficies similares que reflejan la luz hacia los montajes de sensor 305, 310 y 315.
[0043] Los campos de vision de cada uno de los sensores en la matriz 300 se ilustran en la Figura 3C. El campo de vision 360 corresponde al sensor 320, el campo de vision 365 corresponde al sensor 325 y el campo de vision 370 corresponde al sensor 330. Debido en parte al angulo relativo de las superficies de espejo centrales 337 y 338, los campos de vision 360 y 365 comparten una superposicion triangular. Los campos de vision 365 y 370 tambien pueden compartir una superposicion triangular de las mismas especificaciones. Como el espejo central 335 es simetrico con respecto a la linea de simetria 336, los campos de vision 345, 350 y 355 pueden tener una relacion similar entre si como los campos de vision 360, 365 y 370. Ademas, las dos filas de la matriz de sensores pueden compartir campos de vision superpuestos. Los campos de vision 365 y 350 comparten una superposicion rectangular. En algunos modos de realizacion, los sensores en la matriz pueden capturar una pluralidad de imagenes de acuerdo con los campos de vision ilustrados, y la pluralidad de imagenes se pueden combinar y recortar al limite rectangular 340 con el fin de producir la imagen objetivo.
[0044] La Figura 4 ilustra un modo de realizacion de un montaje de sensor optico plegado 400 que comprende un sensor 405, un sistema de lente 495, una primera superficie reflectante 480 y una segunda superficie reflectante 401.
[0045] En el montaje de sensor optico plegado 400, la primera superficie reflectante 480 puede colocarse en un angulo To con respecto al plano en el que esta montado el sensor 405. La segunda superficie reflectante 401 puede colocarse en un angulo Ti con respecto al plano en el que se monte el sensor 405. El sensor 405 puede tener un campo de vision diagonal y y un campo de vision de la altura del sensor yh determinado al menos parcialmente por la altura del sensor 410. El sistema de lente 495 puede colocarse a una distancia 445 de la primera superficie reflectante 480, medida a lo largo de un eje central desde el punto do en el borde receptor del sistema de lente 495 hasta el punto Qo en la superficie reflectante 480. El sistema de lente puede colocarse a una distancia 430 de la segunda superficie reflectante 401, medida a lo largo de un eje central desde el punto d i en el borde de transmision de luz del sistema de lente 495 hasta el punto Q; en la superficie reflectante 401.
[0046] La luz incidente 475 que comprende la escena de la imagen objetivo se desplaza hacia la primera superficie reflectante 480. El haz incidente 475 golpea la superficie 480 en el punto Po y luego se refleja fuera de la superficie 480 y se desplaza como el haz reflejado 470 hacia el sistema de lente 495. El haz incidente 475 forma un angulo ao con respecto al borde receptor del sistema de lente 495, y el haz reflejado 470 forma un angulop en relacion con el borde receptor del sistema de lente 495. El angulo de reflexion entre el haz incidente 475 y el haz reflejado 470 se indica con la variable 5o.
[0047] El haz reflejado 470 entra luego en el sistema de lente 495 y pasa a traves de al menos una lente del diametro 465. El sistema de lente 495 tiene una longitud 435 y un diametro 425. Dentro del sistema de lente, la imagen objetivo es de la altura 460. Una distancia 440 marca la posicion del diafragma de la lente desde el borde del sistema de lente 495. En los modos de realizacion que empleen una lente convergente, la luz puede converger en un punto focal R y luego desplazarse hacia el otro lado del sistema de lente 495.
[0048] Despues de dejar el sistema de lente 495, un haz de luz 455 incide sobre la superficie reflectante secundaria 401. El haz incidente 455 golpea la superficie 480 en el punto P; y luego se refleja fuera de la superficie 401 y se desplaza como el haz reflejado 450 hacia el sensor 405. El haz reflejado 450 forma un angulo a i en relacion con el borde de transmision de luz del sistema de lente 495, y el haz incidente 455 forma un angulo pi en relacion con el borde de transmision de luz del sistema de lente 495. El angulo de reflexion entre el haz incidente 455 y el haz reflejado 450 se indica con la variable 5i.
[0049] La relacion entre las variables mencionadas anteriormente se define, en algunos modos de realizacion 2D, mediante las siguientes ecuaciones:
a = n - p - 8
P = (jt-7 i[)/2
(1 = ji - 7h - 2x
[0050] La altura Z minima 490 del sistema 400 con opticas plegadas esta determinada por la distancia focal trasera minima. La distancia focal trasera minima se puede usar para calcular un valor maximo para el diametro 425 del sistema de lente. El diametro 425 del sistema de lente determina el valor de la distancia Z al sensor 420 y el valor de la distancia Z a la parte superior del espejo 485. La suma de los valores de la distancia Z al sensor 420 y la distancia Z a la parte superior del espejo 485 proporciona la altura Z minima para el sistema 480.
[0051] En un modo de realizacion, tanto la distancia Z al sensor 420 como la distancia a la superficie reflectante secundaria 430 son minimas, y por tanto el conjunto 400 tiene la distancia focal trasera minima que se requiere para usar opticas plegadas. Esto se puede producir cuando el diametro del sistema de lente 425 aumente hasta el punto en el que el haz reflejado 450 simplemente no se interseque con el sistema de lente 495 y el sensor 405 no se interseque con el sistema de lente 495 y la segunda superficie reflectante 401. En este punto, el diametro del sistema de lente 425 tambien puede haber alcanzado su valor maximo.
[0052] La altura Z minima del sistema 490 con optica plegada esta relacionada con la distancia focal trasera minima, y a partir de la distancia focal minima trasera se puede calcular el valor maximo para el diametro del sistema de lente 425. La distancia focal trasera del sistema de lente 495 con optica plegada se puede calcular anadiendo la distancia a la segunda superficie reflectante 401 y la distancia al sensor 415. En un modo de realizacion, el campo de vision yh puede fijarse en 40 grados, la altura del sensor 405 puede ser de 1,6 mm, y el sensor 405 puede ser un sensor IMpx. La distancia focal trasera puede ser de 2 mm cuando el diametro de lente 465 sea de 5 mm. En algunos modos de realizacion, el numero de sensores en una matriz de sensores opticos plegados puede aumentarse para lograr alturas Z inferiores.
[0053] En un modo de realizacion, el sensor 405 puede ser un sensor de 5MP con un pixel de 1,4 pm y el campo de vision yh puede ser de 65 grados. La distancia focal efectiva de este modo de realizacion puede ser de 3,57 mm cuando se enfoque al infinito. De manera similar, la distancia focal efectiva de un modo de realizacion con un sensor de 8 MP con un paso de pixeles de 1,12 pm tambien puede ser de 3,57 mm, ya que el sensor puede tener el mismo tamano fisico que el sensor de 5 MP. Es posible que la altura Z del sistema 490 de estos modos de realizacion sea de aproximadamente 3,9 mm.
[0054] Las Figuras 5A y 5B ilustran dos modos de realizacion de seis matrices de sensores opticos plegados con los campos de vision correspondientes. Como se analizo anteriormente con respecto a la Figura 4, los montajes de sensor de estos modos de realizacion pueden comprender cada uno un sensor, un sistema de lente y una superficie reflectante colocada para guiar la luz sobre el sensor. Los espejos centrales analizados en estos modos de realizacion pueden fabricarse como un montaje de superficies reflectantes independientes o pueden fabricarse como un prisma singular con multiples superficies reflectantes.
[0055] La Figura 5A ilustra otro modo de realizacion de una matriz de sensores opticos plegados 500 con una primera fila de montajes de sensor 510, 520 y 530 y una segunda fila de montajes de sensor 540, 550 y 560 alrededor de un espejo central 505. Los montajes de sensor en cada fila pueden hacerse rotar o inclinarse entre si, de manera que los sensores no esten montados en el mismo plano. Por ejemplo, los montajes de sensor externos 510, 530 y 540, 560 pueden hacerse rotar mas o menos aproximadamente 21 grados con respecto a los sensores centrales 520, 550. Los ejes centrales de los conjuntos pueden estar en un plano que sea paralelo a un plano de imagen. Ciertos modos de realizacion del montaje de sensor 500 pueden medir 11 mm x 12 mm - 4,5 mm (W x L - altura Z). Por supuesto, los modos de realizacion no estan limitados a estas rotaciones, y se contemplan otros grados de rotacion.
[0056] El espejo central 505 puede comprender seis superficies, comprendiendo cada superficie configurada para redirigir la luz una porcion de una escena de la imagen objetivo hacia uno de los montajes de sensor. Por ejemplo, la superficie 570 puede dirigir la luz al montaje de sensor 540, la superficie 580 puede dirigir la luz al montaje de sensor 550, y la superficie 590 puede dirigir la luz al montaje de sensor 560. En un modo de realizacion, las superficies 570 y 590 pueden angularse a 76 x 31,3 grados (parte superior x parte inferior) y la superficie 580 pueden angularse a 76,4 grados x 0 grados (parte superior x parte inferior). Aunque no es visible en la vista en perspectiva de la Figura 5A, el lado del espejo central 505 puede comprender tres superficies adicionales correspondientes a los montajes de sensor 510, 520 y 530. Un modo de realizacion puede comprender un espejo complejo con diez facetas, seis de las cuales pueden ser superficies reflectantes. Algunos modos de realizacion del espejo central pueden comprender un espejo complejo con seis facetas, y otros modos de realizacion pueden comprender tres espejos independientes en forma de cuna. En otros modos de realizacion con N sensores, el espejo central puede comprender N superficies, en el que cada una de las N superficies esta configurada para dirigir la luz que comprenda una porcion de la escena de la imagen objetivo hacia uno de los N sensores.
[0057] La Figura 5B ilustra otro modo de realizacion de una matriz de sensores opticos plegados 501 en la que seis montajes de sensor 511,521,531,541,551 y 561 estan montados alrededor de un patron generalmente circular alrededor de un grupo de tres espejos centrales 571, 581 y 591. En algunos modos de realizacion, puede haber aproximadamente un angulo de 76 grados entre los montajes de sensor 511 y 541 y los montajes de sensor 531 y 561. Los montajes de sensor pueden montarse en el mismo plano, por ejemplo, en un sustrato sustancialmente plano. En algunos modos de realizacion, los sensores en los montajes de sensor pueden estar dispuestos perpendiculares a la superficie de montaje. Cada sensor puede ver una parte diferente del campo total.
[0058] Los espejos centrales 571, 581 y 591 tambien pueden montarse en el sustrato. Los espejos centrales 571, 581 y 591 pueden ser un espejo independiente en forma de cuna. La superficie 571 puede dirigir la luz a ambos montajes de sensor 511 y 541. La superficie 581 puede comprender dos superficies reflectantes independientes, una primera superficie que puede dirigir la luz al montaje de sensor 551 y una segunda superficie que puede dirigir la luz al montaje de sensor 521. La superficie 591 puede dirigir la luz a ambos montajes de sensor 531 y 561. Ciertos modos de realizacion de la matriz de sensores 501 pueden medir 15 mm x 17 mm - 3,6 mm (W x L - altura Z).
[0059] En un modo de realizacion, los sensores en la matriz 501 pueden ser de 5 megapixeles con un tamano de pixel de 1,4 pm y una relacion de 4:3, y teniendo dimensiones de 3,61 x 2,71 mm (W x H). En otro modo de realizacion, los sensores pueden ser de 8 megapixeles con un tamano de pixel de 1,12 pm y una relacion de 4:3, y tener dimensiones de 3,66 x 2,74 mm (W x H). El campo de vision de cada sensor puede ser de 40 grados. El tamano total de la matriz 501 en ciertos modos de realizacion puede no ser mayor que 18 x 18 - 2,5 mm (W x L - altura Z). Puede haber una superposicion del 5 % al 10 % entre los campos de vision de los distintos sensores a distancias de objeto mayores o iguales a 20 cm. La superposicion angular puede ser constante en funcion de la distancia del objeto, o al menos constante asintoticamente.
[0060] Ciertos modos de realizacion de las matrices 500, 501 pueden emplear un montaje de lente similar al sistema de lente 495 representado en la Figura 4. Todos los sistemas de lente en ciertos modos de realizacion de la matriz pueden tener la misma distancia focal, diametro y longitud de la lente, lo que puede producir resultados deseables con respecto a maximizar el area de sensor utilizable. Maximizar el area del sensor utilizable tambien se puede lograr usando diferentes disenos para los sistemas de lente de los sensores internos y externos. En algunos modos de realizacion, el diametro de la lente puede ser de aproximadamente 1,3 mm, y la distancia focal puede ser de aproximadamente 2,7 mm. La longitud maxima posible del sistema de lente puede ser de aproximadamente 2,3 mm, y el diametro (altura) del sistema de lente puede ser de aproximadamente 1,6 mm. El campo de vision total de la matriz 501 puede ser de 83 grados.
[0061] La Figura 5C ilustra un modo de realizacion de los campos de vision proyectados de los modos de realizacion de la matriz de sensores opticos plegados de las Figuras 5A-B. Aunque las configuraciones del sensor y del espejo central son diferentes entre los dos modos de realizacion de matriz 500, 501, comparten la misma configuracion de campo de vision. El campo de vision 515 corresponde a los sensores 510, 511; el campo de vision 525 corresponde a los sensores 520, 521; el campo de vision 535 corresponde a los sensores 530, 531; el campo de vision 545 corresponde a los sensores 540, 541; el campo de vision 555 corresponde a los sensores 550, 551; y el campo de vision 565 corresponde a los sensores 560, 561.
[0062] Los campos de vision 515 y 525 pueden compartir una superposicion triangular en la que la superposicion angular varia entre 1 -4 grados en las direcciones X e Y. En algunos modos de realizacion, la superposicion puede ser de mas de 4 grados. Por ejemplo, en algunos modos de realizacion, la superposicion puede ser de 10 grados o mas en los casos en que puede ser apropiado como un diseno, basado al menos parcialmente en la eficiencia del uso del area del sensor y la perdida relacionada. En algunos modos de realizacion donde la superposicion angular es de 3 grados, en los campos de vision de 1 metro 515 y 525, puede tener una superposicion que comprenda el 3,3 % del area total capturada de los dos campos de vision superpuestos. Los campos de vision 525 y 535, los campos de vision 545 y 555 y el campo de vision 555 y 565 tambien pueden compartir una superposicion triangular de las mismas especificaciones. Ademas, los campos de vision 515 y 545 pueden compartir una superposicion triangular de 5,1% a 4 grados. Los campos de vision 535 y 565 comparten una superposicion similar. Los campos de vision 525 y 555 se superponen sobre la matriz de sensores 500, 501 y pueden compartir 3,3 % a 3 grados. El campo de vision de toda la matriz 500, 501 puede ser de 82 grados. Algunos modos de realizacion de los campos de vision superpuestos pueden recortarse a una relacion de aspecto rectangular de 4:3 596, lo que da como resultado una perdida del 18,8 %. Otros modos de realizacion pueden recortarse a una relacion de aspecto cuadrado de 1:1595, lo que da como resultado una perdida del 11,3 %.
[0063] En otros modos de realizacion, los campos de vision 515 y 525 pueden tener una superposicion de 5,2 grados que comprenda el 6,7 % del area total capturada de los dos campos de vision superpuestos. Los campos de vision 525 y 535, los campos de vision 545 y 555 y el campo de vision 555 y 565 tambien pueden compartir una superposicion triangular de las mismas especificaciones. Ademas, los campos de vision 515 y 545 pueden compartir una superposicion triangular de 8,5% a 4,9 grados. Como se sembro, los campos de vision 535 y 565 comparten una superposicion similar. Los campos de vision 525 y 555 se superponen sobre la matriz de sensores 500, 501 y pueden compartir 7,5 % a 5,3 grados. Otros modos de realizacion pueden compartir porcentajes mayores o menores del area capturada en una variedad de angulos. Algunos modos de realizacion de los campos de vista superpuestos pueden recortarse a una relacion de aspecto rectangular de 4:3596, lo que da como resultado una perdida del 24,2 %. Otros modos de realizacion pueden recortarse a un rectangulo mas grande, lo que da como resultado una perdida del 6,6 %. El campo total de vision puede ser de 76 grados. Sin embargo, estos numeros se basan en la optimizacion visual de las areas de superposicion, y varian dependiendo de factores tales como el area de perdida permitida y la distancia del objeto.
[0064] En un modo de realizacion de la matriz de sensores 500, la superposicion centro-centro (525, 555) puede ser del 5 % a 3,7 grados, la superposicion lado-lado puede ser del 5,1% a 4 grados, y la superposicion centro-lado puede ser del 3.3 % a 3,3 grados. El recorte en una relacion de aspecto rectangular de 4:3 puede dar como resultado una perdida del 18,8 %, mientras que el recorte en el rectangulo mas grande posible puede dar como resultado una perdida del 11,3 %. En un modo de realizacion de la matriz de sensores 501, la superposicion centro-centro (525, 555) puede ser del 5 % a 4,7 grados, la superposicion lado-lado puede ser del 5 % a 4 grados, y la superposicion centro-lado puede ser del 3,6 % a 2,2 grados. El recorte en una relacion de aspecto rectangular de 4:3 puede dar como resultado una perdida del 19,4 %, mientras que el recorte en el rectangulo mas grande posible puede dar como resultado una perdida del 11,2 %. En otro modo de realizacion de la matriz de sensores 501, la superposicion centro-centro (525, 555) puede ser del 2,4% a 1,6 grados, la superposicion lado-lado puede ser del 8 % a 6,2 grados, y la superposicion lado-centro puede ser el 6,9 % a 4.3 grados. El recorte en una relacion de aspecto rectangular de 4:3 puede dar como resultado una perdida del 14,2 %, mientras que el recorte en el rectangulo mas grande posible puede dar como resultado una perdida del 14,2 %. El campo total de vision puede ser de 83 grados. En un modo de realizacion, la imagen final puede ser de alrededor de 19 megapixeles despues del recorte de 4:3.
[0065] La limitacion de la altura Z total del sistema puede dar como resultado que una porcion de cada sensor en la matriz se vuelva inutilizable debido a la altura limitada de cada espejo secundario. Por ejemplo, en un modo de realizacion de la matriz 501 que emplee montajes de sensor tales como los que se describen en la Figura 4, y en los que la altura Z del sistema se limita a 2,5 mm, los sensores 551 y 521 pueden tener un area utilizable del 54,2 % y los sensores 511, 531,541 y 561 pueden tener un area utilizable del 52,1 %. La altura del sensor utilizable puede estar alrededor de 2 mm por debajo de la restriccion de altura del sistema.
[0066] La FIG. 6A ilustra otro modo de realizacion de una matriz de sensores opticos plegados 600. La matriz de sensores 6600 con una primera fila de montajes de sensor 610, 620 y 630 y una segunda fila de montajes de sensor 640, 650 y 660 alrededor de un espejo central 505. Los montajes de sensor en cada fila pueden hacerse rotar o inclinarse entre si, de manera que los sensores no esten montados en el mismo plano. En algunos modos de realizacion, dicha configuracion de sensor proporciona una pluralidad de imagenes rectangulares, ya que el plano de imagen y el plano focal pueden ser paralelos. Ciertos modos de realizacion de la matriz de sensores 600 pueden medir 12 mm x 15 mm - 4,6 mm (W x L - altura Z).
[0067] El espejo central 670 puede comprender seis superficies, comprendiendo cada superficie configurada para redirigir la luz una porcion de una escena de la imagen objetivo hacia uno de los montajes de sensor. Algunos modos de realizacion del espejo central pueden comprender un espejo complejo con seis facetas, y otros modos de realizacion pueden comprender tres espejos independientes en forma de cuna. Por ejemplo, la superficie 673 puede dirigir la luz al montaje de sensor 640, la superficie 672 puede dirigir la luz al montaje de sensor 650, la superficie 671 puede dirigir la luz al montaje de sensor 560, y la superficie 674 puede dirigir la luz al sensor 630. Aunque no es visible en la vista en perspectiva de la Figura 6A, el lado opuesto del espejo central 505 puede comprender dos superficies adicionales correspondientes a los montajes de sensor 510 y 520. En otros modos de realizacion con N sensores, el espejo central puede comprender N superficies, en el que cada una de las N superficies esta configurada para dirigir la luz que comprenda una porcion de la escena de la imagen objetivo hacia uno de los N sensores.
[0068] La FIG. 6B ilustra un modo de realizacion de campos de vision proyectados de la matriz de sensores opticos plegados 600 de la FIG. 6A. El campo de vision 615 corresponde al sensor 610, el campo de vision 625 corresponde al sensor 620, el campo de vision 635 corresponde al sensor 630, el campo de vision 645 corresponde al sensor 640, el campo de vision 655 corresponde al sensor 650 y el campo de vision 665 corresponde al sensor 660.
[0069] Los campos de vision 615 y 625 pueden compartir una superposicion rectangular que sea constante en la direccion X e Y constante asintoticamente en la direccion Z. En algunos modos de realizacion donde la superposicion angular es de 1,8 grados, en los campos de vision de 1 metro 615 y 625, puede tener una superposicion que comprenda el 3,3 % del area total capturada de los dos campos de vision superpuestos. Los campos de vision 625 y 635, los campos de vision 645 y 655, y los campos de vision 655 y 665 tambien pueden compartir una superposicion rectangular de las mismas especificaciones. Los campos de vision centrales 625 y 655 pueden compartir una superposicion rectangular del 5,1 % a 3,4 grados. Los campos de vision laterales 615 y 645, asi como 635 y 665, pueden compartir una superposicion rectangular del 5 % a 3,6 grados. El recorte a una relacion de aspecto rectangular de 4:3680 puede dar como resultado una perdida del 15,6 %, y el recorte a una relacion de aspecto cuadrado de 1:1 690 puede dar como resultado una perdida del 4 %.
[0070] En otro modo de realizacion, la superposicion angular entre los campos de vision 615 y 625 puede ser de 3-5 grados, y los campos de vision de 1 metro 615 y 625 pueden tener una superposicion que comprenda del 4 % al 6 % del area total capturada de los dos campos de vision superpuestos. Los campos de vision 625 y 635, los campos de vision 645 y 655, y los campos de vision 655 y 665 tambien pueden compartir una superposicion rectangular de las mismas especificaciones. Los campos de vision centrales 625 y 655 pueden compartir una superposicion rectangular del 6 % al 8 % a 4-8 grados. Los campos de vision laterales 615 y 645, asi como 635 y 665, pueden compartir una superposicion rectangular del 6% al 9% a 4-10 grados. El recorte a una relacion de aspecto rectangular de 4:3 680 puede dar como resultado una perdida del 17,8 %, y el recorte en un rectangulo mas grande puede dar como resultado una perdida del 4,5 %. El campo de vision total puede estar entre 70 y 120 grados. Sin embargo, estos numeros se basan en la optimizacion visual de las areas de superposicion, y varian dependiendo de factores tales como el area de perdida permitida y la distancia del objeto.
[0071] La Figura 7 ilustra otro modo de realizacion de una matriz de sensores opticos plegados 700 con una pluralidad de montajes de sensor 705 y una pluralidad de espejos centrales 710. Como se analizo anteriormente con respecto a la Figura 4, cada montaje de sensor puede comprender un sensor, un sistema de lente y una superficie reflectante configurada para redirigir la luz desde el sistema de lente hacia el sensor. En este modo de realizacion, se ha repetido una matriz de sensores que comprende dos matrices de 3x1 a cada lado de un espejo central 710, de manera que hay una matriz en cascada de 2x2 de las matrices de sensores. Otros modos de realizacion pueden emplear cualquier configuracion de matriz en cascada adecuada.
[0072] La Figura 8 ilustra otro modo de realizacion de un montaje de sensor optico plegado 800. Esencialmente, los espejos se invierten en posicion en comparacion con los modos de realizacion descritos anteriormente. Por ejemplo, la luz que comprende la imagen objetivo incide en dos superficies reflectantes primarias 820, 821 que rodean el sensor 810, 811. La luz se redirige hacia el interior a traves de dos montajes de lente 840, 841 y luego se refleja en las superficies reflectantes secundarias centrales 830, 831 y hacia los sensores 810, 811. Los sensores 810, 811 pueden representar sensores individuales o una serie de sensores.
[0073] La FIG. 9 ilustra un modo de realizacion de un proceso de captura de imagenes opticas plegadas 900. El proceso 900 comienza en la etapa 905, en la que hay una pluralidad de montajes de sensor de imagen. Esta etapa incluye cualquiera de las configuraciones de matriz de sensores analizadas anteriormente con respecto a las imagenes anteriores. Los montajes de sensor pueden incluir, como se analizo anteriormente con respecto a la Figura 4, un sensor, un sistema de lente y una superficie reflectante colocada para redirigir la luz desde el sistema de lente hacia el sensor. El proceso 900 se mueve luego a la etapa 910, en el que al menos una superficie reflectante esta montada cerca de la pluralidad de sensores de imagen. Por ejemplo, esta etapa podria comprender montar un espejo central entre dos filas de matrices de sensores, en el que el espejo central comprende una superficie asociada con cada sensor en las matrices.
[0074] El proceso 900 hace la transicion luego a la etapa 915, en el que la luz que comprende una imagen objetivo de una escena se refleja desde la al menos una superficie reflectante hacia los sensores de imagen. Por ejemplo, una porcion de la luz puede reflejarse desde cada una de una pluralidad de superficies hacia cada una de la pluralidad de sensores. Esta etapa puede comprender ademas pasar la luz a traves de un montaje de lente asociado con cada sensor, y tambien puede incluir reflejar la luz de una segunda superficie sobre un sensor. La etapa 915 puede comprender ademas enfocar la luz usando el montaje de lente o mediante el movimiento de cualquiera de las superficies reflectantes.
[0075] El proceso 900 puede moverse luego a la etapa 920, en la que los sensores capturan una pluralidad de imagenes de la escena de la imagen objetivo. Por ejemplo, cada sensor puede capturar una imagen de una porcion de la escena correspondiente al campo de vision de ese sensor. Juntos, los campos de vision de la pluralidad de sensores cubren al menos la imagen objetivo en el espacio del objeto.
[0076] El proceso 900 puede hacer la transicion luego a la etapa 925 en la que se realiza un procedimiento de combinacion de imagenes para generar una imagen unica a partir de la pluralidad de imagenes. En algunos modos de realizacion, el modulo de combinacion de imageries 240 de la Figura 2 puede realizar esta etapa. Esto puede incluir tecnicas de combinacion de imagen conocidas. Ademas, cualquier area de superposicion en los campos de vision puede generar una superposicion en la pluralidad de imagenes, que se puede usar para alinear las imagenes en el proceso de combinacion. Por ejemplo, la etapa 925 puede incluir ademas la identificacion de caracteristicas comunes en el area de superposicion de imagenes adyacentes y el uso de caracteristicas comunes para alinear las imagenes.
[0077] A continuacion, el proceso 900 hace la transicion a la etapa 930 en la que la imagen combinada se recorta a una relacion de aspecto especifica, por ejemplo, de 4:3 o de 1:1. Finalmente, el proceso finaliza despues de almacenar la imagen recortada en la etapa 935. Por ejemplo, la imagen se puede almacenar en el almacenamiento 210 de la Figura 2, o se puede almacenar en la memoria de trabajo 205 de la Figura 2 para mostrarla como una imagen de vista previa de la escena de destino.
Aclaraciones sobre terminoloaia
[0078] Los expertos en la tecnica apreciaran ademas que los diversos bloques logicos, modulos, circuitos y etapas de algoritmo ilustrativos descritos en relacion con las implementaciones divulgadas en el presente documento pueden implementarse como hardware electronico, software informatico o combinaciones de ambos. Para ilustrar claramente esta intercambiabilidad de hardware y software, anteriormente se han descrito, en general, diversos componentes, bloques, modulos, circuitos y etapas ilustrativos en terminos de su funcionalidad. Que dicha funcionalidad se implemente como hardware o software depende de la solicitud particular y de las restricciones de diseno impuestas en el sistema global. Los expertos en la tecnica pueden implementar la funcionalidad descrita de formas distintas para cada solicitud particular, pero no deberia interpretarse que dichas decisiones de implementacion suponen apartarse del alcance de la presente invencion. Un experto en la tecnica reconocera que una porcion, o una parte, puede comprender algo menos o igual que un todo. Por ejemplo, una porcion de una coleccion de pixeles puede referirse a una subcoleccion de esos pixeles.
[0079] Los diversos bloques logicos, modulos y circuitos ilustrativos descritos en relacion con las implementaciones divulgadas en el presente documento pueden implementarse o realizarse con un procesador de uso general, con un procesador de senales digitales (DSP), con un circuito integrado especifico de la aplicacion (ASIC), con una matriz de puertas programables por campo (FPGA) o con otro dispositivo de logica programable, logica de puertas discretas o de transistores, componentes de hardware discretos o con cualquier combinacion de los mismos disenada para realizar las funciones descritas en el presente documento. Un procesador de uso general puede ser un microprocesador pero, como alternativa, el procesador puede ser cualquier procesador, controlador, microcontrolador o maquina de estados convencional. Un procesador tambien puede implementarse como una combinacion de dispositivos informaticos, por ejemplo, una combinacion de un DSP y un microprocesador, una pluralidad de microprocesadores, uno o mas microprocesadores junto con un nucleo de DSP o cualquier otra configuracion de este tipo.
[0080] Las etapas de un procedimiento o algoritmo descrito en relacion con las implementaciones divulgadas en el presente documento se pueden realizar directamente en hardware, en un modulo de software ejecutado por un procesador o en una combinacion de los dos. Un modulo de software puede residir en una memoria RAM, una memoria flash, una memoria ROM, una memoria EPROM, una memoria EEPROM, registros, un disco duro, un disco extraible, un CD-ROM o en cualquier otra forma de medio de almacenamiento no transitorio conocida en la tecnica. Un medio de almacenamiento legible por ordenador a modo de ejemplo esta acoplado al procesador de manera que el procesador pueda leer informacion de, y escribir informacion en, el medio de almacenamiento legible por ordenador. Como alternativa, el medio de almacenamiento puede estar integrado en el procesador. El procesador y el medio de almacenamiento pueden residir en un ASIC. El ASIC puede residir en un terminal de usuario, camara u otro dispositivo. Como alternativa, el procesador y el medio de almacenamiento pueden residir como componentes discretos en un terminal de usuario, una camara u otro dispositivo.
[0081] Los titulos se incluyen en el presente documento para referencia y para facilitar la ubicacion de diversas secciones. Estos titulos no pretenden limitar el alcance de los conceptos descritos con respecto a los mismos. Dichos conceptos pueden tener aplicabilidad a lo largo de toda la memoria descriptiva.
[0082] La descripcion anterior de las implementaciones divulgadas se proporciona para permitir que cualquier experto en la tecnica realice o use la presente invencion. Diversas modificaciones de estas implementaciones resultaran inmediatamente evidentes para los expertos en la tecnica, y los principios genericos definidos en el presente documento pueden aplicarse a otros aspectos sin apartarse del alcance de la invencion. Por tanto, la presente invencion no pretende limitarse a las implementaciones mostradas en el presente documento, sino que se le concede el alcance mas amplio compatible con los principios y caracteristicas novedosas divulgados en el presente documento.

Claims (15)

REIVINDICACIONES
1. Un sistema de captura de imageries para capturar una pluralidad de imageries parciales, para montarse en una imagen objetivo de una escena, el sistema que comprende:
una pluralidad de sensores de imagen, teniendo cada uno de la pluralidad de sensores de imagen uno de una pluralidad de campos de vision, comprendiendo cada uno de la pluralidad de campos de vision una porcion sustancialmente diferente de la escena;
una pluralidad de montajes de lente, correspondiendo cada montaje de lente a uno de la pluralidad de sensores de imagen;
una superficie primaria colocada para dirigir una porcion de luz que comprenda uno de la pluralidad de campos de vision hacia uno de la pluralidad de montajes de lente; y
una pluralidad de superficies secundarias,
en la que cada uno de la pluralidad de montajes de lente se coloca entre la superficie primaria y uno de la pluralidad de superficies secundarias, de manera que cada uno de la pluralidad de superficies secundarias reciba al menos una porcion de la luz de uno de la pluralidad de montajes de lente y dirija la luz recibida hacia uno correspondiente de la pluralidad de sensores de imagen, para enfocar una imagen parcial que corresponda a uno de la pluralidad de campos de vision, y
en el que cada uno de la pluralidad de sensores de imagen captura una de la pluralidad de imagenes parciales.
2. El sistema de captura de imagenes de acuerdo con la reivindicacion 1, que comprende ademas un sustrato sustancialmente plano.
3. El sistema de captura de imagenes de acuerdo con la reivindicacion 2, en el que la pluralidad de sensores se colocan lateralmente adyacentes entre si sobre el sustrato.
4. El sistema de captura de imagenes de acuerdo con la reivindicacion 2, en el que la pluralidad de sensores estan dispuestos en dos filas sobre el sustrato, y en el que la superficie primaria se coloca entre las dos filas.
5. El sistema de captura de imagenes de acuerdo con la reivindicacion 2, en el que la pluralidad de sensores estan dispuestos de manera circular alrededor de la superficie primaria sobre el sustrato.
6. El sistema de captura de imagenes de acuerdo con la reivindicacion 1, en el que la superficie primaria comprende un prisma configurado para reflejar la luz.
7. El sistema de captura de imagenes de acuerdo con la reivindicacion 6, en el que el prisma comprende una pluralidad de facetas, y en el que cada una de la pluralidad de facetas refleja una porcion de la luz que comprende uno de la pluralidad de campos de vision hacia uno de la pluralidad de montajes de lente.
8. El sistema de captura de imagenes de acuerdo con la reivindicacion 1, en el que la superficie primaria comprende un espejo; y/o
en el que cada una de la pluralidad de superficies secundarias comprende una superficie reflectante.
9. El sistema de captura de imagenes de acuerdo con la reivindicacion 1, que comprende ademas un modulo de procesamiento configurado para montar la pluralidad de imagenes parciales en la imagen objetivo.
10. Un procedimiento para capturar una imagen objetivo de una escena, el procedimiento que comprende:
proporcionar una pluralidad de sensores de imagen, teniendo cada uno de la pluralidad de sensores de imagen uno de una pluralidad de campos de vision, y comprendiendo cada uno de la pluralidad de campos de vision una porcion sustancialmente diferente de la escena;
proporcionar una pluralidad de montajes de lente, correspondiendo cada montaje de lente a uno de la pluralidad de sensores de imagen;
dirigir la luz hacia la pluralidad de montajes de lente usando una superficie primaria, en la que la superficie primaria se coloca para dirigir una porcion de luz que comprenda uno de la pluralidad de campos de vision hacia uno de la pluralidad de montajes de lente;
dirigir la luz desde cada uno de la pluralidad de montajes de lente hacia uno correspondiente de la pluralidad de sensores de imagen usando una pluralidad de superficies secundarias, en la que cada uno de la pluralidad de montajes de lente se coloca entre la superficie primaria y una de la pluralidad de superficies secundarias, de manera que cada una de la pluralidad de superficies secundarias recibe al menos una porcion de la luz de uno de la pluralidad de montajes de lente;
enfocar una pluralidad de imagenes parciales que correspondan a la pluralidad de campos de vision usando la pluralidad de montajes de lente, en la que cada uno de los montajes de lente se coloca entre la superficie primaria y una de la pluralidad de superficies secundarias; y
capturar la pluralidad de imagenes parciales, en la que cada una de la pluralidad de imagenes parciales se captura por uno de la pluralidad de sensores de imagen.
11. El procedimiento de acuerdo con la reivindicacion 10, en el que montar la pluralidad de imagenes parciales comprende:
combinar la pluralidad de imagenes parciales en una imagen combinada; y
recortar la imagen de combinacion de acuerdo con una relacion de aspecto deseada para producir la imagen objetivo.
12. El procedimiento de acuerdo con la reivindicacion 10, en el que montar la pluralidad de imagenes parciales comprende:
determinar al menos un area de superposicion en la pluralidad de imagenes parciales; y
alinear la pluralidad de imagenes parciales basadas al menos parcialmente en la al menos un area de superposicion, generando de este modo una imagen alineada que comprende la escena.
13. El procedimiento de acuerdo con la reivindicacion 12, que comprende ademas recortar la imagen alineada de acuerdo con una relacion de aspecto deseada para producir la imagen objetivo.
14. Procedimiento segun la reivindicacion 10, que comprende ademas montar la pluralidad de imagenes parciales en la imagen objetivo.
15. Un medio no transitorio legible por ordenador que comprende instrucciones que, cuando se ejecutan por un procesador, realizan el procedimiento de cualquiera de las reivindicaciones 10 a 14.
ES13779716T 2012-10-19 2013-10-10 Sistema multicámara que usa óptica plegada Active ES2714278T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261716339P 2012-10-19 2012-10-19
US13/837,098 US9398264B2 (en) 2012-10-19 2013-03-15 Multi-camera system using folded optics
PCT/US2013/064381 WO2014062481A1 (en) 2012-10-19 2013-10-10 Multi-camera system using folded optics

Publications (1)

Publication Number Publication Date
ES2714278T3 true ES2714278T3 (es) 2019-05-28

Family

ID=50485000

Family Applications (1)

Application Number Title Priority Date Filing Date
ES13779716T Active ES2714278T3 (es) 2012-10-19 2013-10-10 Sistema multicámara que usa óptica plegada

Country Status (9)

Country Link
US (3) US9398264B2 (es)
EP (1) EP2910011B1 (es)
JP (2) JP6692640B2 (es)
KR (1) KR102108597B1 (es)
CN (2) CN104704809B (es)
BR (1) BR112015008296B1 (es)
ES (1) ES2714278T3 (es)
HU (1) HUE042567T2 (es)
WO (1) WO2014062481A1 (es)

Families Citing this family (156)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9485495B2 (en) 2010-08-09 2016-11-01 Qualcomm Incorporated Autofocus for stereo images
US9007432B2 (en) * 2010-12-16 2015-04-14 The Massachusetts Institute Of Technology Imaging systems and methods for immersive surveillance
US9438889B2 (en) 2011-09-21 2016-09-06 Qualcomm Incorporated System and method for improving methods of manufacturing stereoscopic image sensors
US9870504B1 (en) * 2012-07-12 2018-01-16 The United States Of America, As Represented By The Secretary Of The Army Stitched image
US9398264B2 (en) * 2012-10-19 2016-07-19 Qualcomm Incorporated Multi-camera system using folded optics
CN116405747A (zh) 2012-11-28 2023-07-07 核心光电有限公司 多孔径成像系统以及通过多孔径成像系统获取图像的方法
US9671595B2 (en) 2013-01-05 2017-06-06 Light Labs Inc. Methods and apparatus for using multiple optical chains in paralell
US9497380B1 (en) 2013-02-15 2016-11-15 Red.Com, Inc. Dense field imaging
US9377902B2 (en) * 2013-02-18 2016-06-28 Microsoft Technology Licensing, Llc Systems and methods for wedge-based imaging using flat surfaces
KR102052553B1 (ko) * 2013-05-14 2019-12-05 삼성전자주식회사 이미징 시스템 및 그것의 자동초점 방법
CN109040553B (zh) 2013-06-13 2021-04-13 核心光电有限公司 双孔径变焦数字摄影机
EP3779564B1 (en) 2013-07-04 2024-04-10 Corephotonics Ltd. Miniature telephoto lens assembly
WO2015015383A2 (en) 2013-08-01 2015-02-05 Corephotonics Ltd. Thin multi-aperture imaging system with auto-focus and methods for using same
US10178373B2 (en) 2013-08-16 2019-01-08 Qualcomm Incorporated Stereo yaw correction using autofocus feedback
US9549127B2 (en) * 2013-10-18 2017-01-17 Light Labs Inc. Image capture control methods and apparatus
US9374514B2 (en) * 2013-10-18 2016-06-21 The Lightco Inc. Methods and apparatus relating to a camera including multiple optical chains
US9563033B2 (en) 2013-10-18 2017-02-07 Light Labs Inc. Methods and apparatus for capturing images and/or for using captured images
CN110135367A (zh) * 2013-10-21 2019-08-16 王晓鹏 一种生物特征成像的方法与设备
US9736365B2 (en) 2013-10-26 2017-08-15 Light Labs Inc. Zoom related methods and apparatus
US9467627B2 (en) 2013-10-26 2016-10-11 The Lightco Inc. Methods and apparatus for use with multiple optical chains
US9686471B2 (en) 2013-11-01 2017-06-20 Light Labs Inc. Methods and apparatus relating to image stabilization
US9554031B2 (en) 2013-12-31 2017-01-24 Light Labs Inc. Camera focusing related methods and apparatus
US9462170B2 (en) 2014-02-21 2016-10-04 The Lightco Inc. Lighting methods and apparatus
US9979878B2 (en) 2014-02-21 2018-05-22 Light Labs Inc. Intuitive camera user interface methods and apparatus
US9262801B2 (en) 2014-04-01 2016-02-16 Gopro, Inc. Image taping in a multi-camera array
US9374516B2 (en) 2014-04-04 2016-06-21 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US9383550B2 (en) 2014-04-04 2016-07-05 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
CN103901587B (zh) * 2014-04-15 2017-04-12 中山联合光电科技有限公司 一种光学系统结构
US10013764B2 (en) 2014-06-19 2018-07-03 Qualcomm Incorporated Local adaptive histogram equalization
US20150373269A1 (en) * 2014-06-20 2015-12-24 Qualcomm Incorporated Parallax free thin multi-camera system capable of capturing full wide field of view images
US9819863B2 (en) 2014-06-20 2017-11-14 Qualcomm Incorporated Wide field of view array camera for hemispheric and spherical imaging
US9294672B2 (en) * 2014-06-20 2016-03-22 Qualcomm Incorporated Multi-camera system using folded optics free from parallax and tilt artifacts
US9541740B2 (en) * 2014-06-20 2017-01-10 Qualcomm Incorporated Folded optic array camera using refractive prisms
CA2952470A1 (en) * 2014-06-20 2015-12-23 Qualcomm Incorporated Parallax free thin multi-camera system capable of capturing full wide field of view images
US9386222B2 (en) * 2014-06-20 2016-07-05 Qualcomm Incorporated Multi-camera system using folded optics free from parallax artifacts
US9549107B2 (en) 2014-06-20 2017-01-17 Qualcomm Incorporated Autofocus for folded optic array cameras
CN106575366A (zh) 2014-07-04 2017-04-19 光实验室股份有限公司 关于检测和/或指示脏镜头状况的方法和装置
US10110794B2 (en) * 2014-07-09 2018-10-23 Light Labs Inc. Camera device including multiple optical chains and related methods
DE102014213371B3 (de) * 2014-07-09 2015-08-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und verfahren zur erfassung eines objektbereichs
US9392188B2 (en) 2014-08-10 2016-07-12 Corephotonics Ltd. Zoom dual-aperture camera with folded lens
WO2016061565A1 (en) 2014-10-17 2016-04-21 The Lightco Inc. Methods and apparatus for using a camera device to support multiple modes of operation
US9832381B2 (en) * 2014-10-31 2017-11-28 Qualcomm Incorporated Optical image stabilization for thin cameras
EP3235243A4 (en) 2014-12-17 2018-06-20 Light Labs Inc. Methods and apparatus for implementing and using camera devices
US9544503B2 (en) 2014-12-30 2017-01-10 Light Labs Inc. Exposure control methods and apparatus
CN112327463B (zh) 2015-01-03 2022-10-14 核心光电有限公司 微型长焦镜头模块和使用该镜头模块的相机
GB2535706A (en) 2015-02-24 2016-08-31 Nokia Technologies Oy Device with an adaptive camera array
EP3492958B1 (en) 2015-04-02 2022-03-30 Corephotonics Ltd. Dual voice coil motor structure in a dual-optical module camera
US9824427B2 (en) 2015-04-15 2017-11-21 Light Labs Inc. Methods and apparatus for generating a sharp image
CN112305833A (zh) 2015-04-16 2021-02-02 核心光电有限公司 紧凑型折叠式相机中的自动对焦和光学图像稳定
US9967535B2 (en) 2015-04-17 2018-05-08 Light Labs Inc. Methods and apparatus for reducing noise in images
US10075651B2 (en) 2015-04-17 2018-09-11 Light Labs Inc. Methods and apparatus for capturing images using multiple camera modules in an efficient manner
US10091447B2 (en) 2015-04-17 2018-10-02 Light Labs Inc. Methods and apparatus for synchronizing readout of multiple image sensors
US9857584B2 (en) 2015-04-17 2018-01-02 Light Labs Inc. Camera device methods, apparatus and components
US9930233B2 (en) 2015-04-22 2018-03-27 Light Labs Inc. Filter mounting methods and apparatus and related camera apparatus
US9667848B2 (en) 2015-04-22 2017-05-30 Qualcomm Incorporated Tiltable camera module
EP3722860B1 (en) 2015-05-28 2023-04-19 Corephotonics Ltd. Bi-directional stiffness for optical image stabilization and auto-focus in a digital camera
EP3101890B1 (en) * 2015-06-03 2017-11-22 Axis AB A mechanism and a method for optical image stabilization
TWI569640B (zh) 2015-06-23 2017-02-01 台灣東電化股份有限公司 攝影模組
US10129483B2 (en) 2015-06-23 2018-11-13 Light Labs Inc. Methods and apparatus for implementing zoom using one or more moveable camera modules
TWI641263B (zh) * 2015-06-23 2018-11-11 台灣東電化股份有限公司 電子裝置及其攝影模組
US10491806B2 (en) 2015-08-03 2019-11-26 Light Labs Inc. Camera device control related methods and apparatus
US10230898B2 (en) 2015-08-13 2019-03-12 Corephotonics Ltd. Dual aperture zoom camera with video support and switching / non-switching dynamic control
TWI592015B (zh) * 2015-08-14 2017-07-11 晶睿通訊股份有限公司 多鏡頭攝影機及監視系統
DE102015215845B4 (de) * 2015-08-19 2017-06-22 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multiaperturabbildungsvorrichtung mit kanalindividueller Einstellbarkeit
DE102015215836B4 (de) 2015-08-19 2017-05-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multiaperturabbildungsvorrichtung mit einer reflektierende Facetten aufweisenden Strahlumlenkvorrichtung
DE102015215837A1 (de) * 2015-08-19 2017-02-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multiaperturabbildungsvorrichtung, Verfahren zum Herstellen derselben und Abbildungssystem
DE102015215841B4 (de) * 2015-08-19 2017-06-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung mit einer Multikanalabbildungsvorrichtung und Verfahren zum Herstellen derselben
DE102015215844B4 (de) * 2015-08-19 2017-05-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multiaperturabbildungsvorrichtung, tragbare Vorrichtung und Verfahren zum Herstellen einer Multiaperturabbildungsvorrichtung
DE102015216140A1 (de) 2015-08-24 2017-03-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. 3D-Multiaperturabbildungsvorrichtung
US11244434B2 (en) 2015-08-24 2022-02-08 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multi-aperture imaging device
KR102340778B1 (ko) * 2015-08-24 2021-12-20 엘지이노텍 주식회사 카메라 모듈
US10365480B2 (en) 2015-08-27 2019-07-30 Light Labs Inc. Methods and apparatus for implementing and/or using camera devices with one or more light redirection devices
US10070060B2 (en) 2015-09-06 2018-09-04 Corephotonics Ltd Auto focus and optical image stabilization with roll compensation in a compact folded camera
US9992477B2 (en) 2015-09-24 2018-06-05 Ouster, Inc. Optical system for collecting distance information within a field
US9749549B2 (en) 2015-10-06 2017-08-29 Light Labs Inc. Methods and apparatus for facilitating selective blurring of one or more image portions
DE102015220566B4 (de) 2015-10-21 2021-03-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung mit einer Multiaperturabbildungsvorrichtung, Verfahren zum Bereitstellen derselben und Verfahren zum Erfassen eines Gesamtgesichtsfeldes
US10003738B2 (en) 2015-12-18 2018-06-19 Light Labs Inc. Methods and apparatus for detecting and/or indicating a blocked sensor or camera module
US10225445B2 (en) 2015-12-18 2019-03-05 Light Labs Inc. Methods and apparatus for providing a camera lens or viewing point indicator
US9955057B2 (en) * 2015-12-21 2018-04-24 Qualcomm Incorporated Method and apparatus for computational scheimpflug camera
KR102291525B1 (ko) 2015-12-29 2021-08-19 코어포토닉스 리미티드 자동 조정가능 텔레 시야(fov)를 갖는 듀얼-애퍼처 줌 디지털 카메라
DE102016200287A1 (de) 2016-01-13 2017-07-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multiaperturabbildungsvorrichtungen, Verfahren zum Herstellen derselben und Abbildungssystem
US10455214B2 (en) * 2016-03-03 2019-10-22 Disney Enterprises, Inc. Converting a monocular camera into a binocular stereo camera
US11956544B2 (en) 2016-03-11 2024-04-09 Apple Inc. Optical image stabilization with voice coil motor for moving image sensor
EP3427100B1 (en) 2016-03-11 2020-04-29 Apple Inc. Optical image stabilization with voice coil motor for moving image sensor
DE102016204148A1 (de) * 2016-03-14 2017-09-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multiaperturabbildungsvorrichtung, Abbildungssystem und Verfahren zum Erfassen eines Objektbereichs
US10306218B2 (en) 2016-03-22 2019-05-28 Light Labs Inc. Camera calibration apparatus and methods
US10437023B2 (en) * 2016-03-28 2019-10-08 Apple Inc. Folded lens system with three refractive lenses
LT3236545T (lt) * 2016-04-22 2022-07-11 Universität Stuttgart Optinis modulis, lazerinio stiprintuvo sistema, būdas ir panaudojimas
DE102016208210A1 (de) 2016-05-12 2017-11-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. 3d-multiaperturabbildungsvorrichtungen, multiaperturabbildungsvorrichtung, verfahren zum bereitstellen eines ausgangssignals einer 3d-multiaperturabbildungsvorrichtung und verfahren zum erfassen eines gesamtgesichtsfeldes
US10466501B2 (en) * 2016-05-26 2019-11-05 Ams Sensors Singapore Pte. Ltd. Optoelectronic modules including an optical system tilted with respect to a focal plane
WO2017208090A1 (en) 2016-05-30 2017-12-07 Corephotonics Ltd. Rotational ball-guided voice coil motor
US9936129B2 (en) 2016-06-15 2018-04-03 Obsidian Sensors, Inc. Generating high resolution images
CN107925728B (zh) 2016-06-19 2020-12-08 核心光电有限公司 双孔径摄影机系统中的帧同步
US9948832B2 (en) 2016-06-22 2018-04-17 Light Labs Inc. Methods and apparatus for synchronized image capture in a device including optical chains with different orientations
US20170374249A1 (en) * 2016-06-23 2017-12-28 Microsoft Technology Licensing, Llc Imaging device with reflective optical element
WO2018007951A1 (en) 2016-07-07 2018-01-11 Corephotonics Ltd. Dual-camera system with improved video smooth transition by image blending
EP4224233A1 (en) 2016-07-07 2023-08-09 Corephotonics Ltd. Linear ball guided voice coil motor for folded optic
TWI616675B (zh) * 2016-07-14 2018-03-01 大立光電股份有限公司 光學攝像系統組、取像裝置及電子裝置
US10297034B2 (en) * 2016-09-30 2019-05-21 Qualcomm Incorporated Systems and methods for fusing images
CN114051092A (zh) 2016-12-28 2022-02-15 核心光电有限公司 具有延伸光折叠元件扫描范围的致动器及含其的折叠相机
US10571679B2 (en) * 2017-01-06 2020-02-25 Karl Storz Imaging, Inc. Endoscope incorporating multiple image sensors for increased resolution
EP3789810B1 (en) 2017-01-12 2022-09-28 Corephotonics Ltd. Compact folded camera
WO2018132839A1 (en) 2017-01-16 2018-07-19 Ring Inc. Audio/video recording and communication devices in network communication with additional cameras
DE102017204035B3 (de) 2017-03-10 2018-09-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multiaperturabbildungsvorrichtung, Abbildungssystem und Verfahren zum Bereitstellen einer Multiaperturabbildungsvorrichtung
CN114137791A (zh) 2017-03-15 2022-03-04 核心光电有限公司 具有全景扫瞄范围的照相装置及移动装置
US10890734B1 (en) 2017-03-29 2021-01-12 Apple Inc. Camera actuator for lens and sensor shifting
DE102017206429A1 (de) * 2017-04-13 2018-10-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multiaperturabbildungsvorrichtung, Abbildungssystem und Verfahren zum Bereitstellen einer Multiaperturabbildungsvorrichtung
DE102017206442B4 (de) 2017-04-13 2021-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zur Abbildung von Teilgesichtsfeldern, Multiaperturabbildungsvorrichtung und Verfahren zum Bereitstellen derselben
US10863094B2 (en) 2017-07-17 2020-12-08 Apple Inc. Camera with image sensor shifting
WO2019048904A1 (en) 2017-09-06 2019-03-14 Corephotonics Ltd. STEREOSCOPIC DEPTH CARTOGRAPHY AND COMBINED PHASE DETECTION IN A DOUBLE-OPENING CAMERA
US10951834B2 (en) 2017-10-03 2021-03-16 Corephotonics Ltd. Synthetically enlarged camera aperture
KR102104761B1 (ko) * 2017-11-23 2020-04-27 코어포토닉스 리미티드 컴팩트 폴디드 카메라 구조
CN108282610A (zh) * 2017-12-31 2018-07-13 深圳市秦墨科技有限公司 一种多目标跟拍控制方法、装置及云台
JP2019128517A (ja) * 2018-01-26 2019-08-01 ソニーセミコンダクタソリューションズ株式会社 撮像装置、及び、電子機器
EP3848749A1 (en) 2018-02-05 2021-07-14 Corephotonics Ltd. Reduced height penalty for folded camera
CN111448793B (zh) 2018-02-12 2021-08-31 核心光电有限公司 具有光学图像稳定化的折叠摄像机
KR102431488B1 (ko) * 2018-03-05 2022-08-12 삼성전자주식회사 전자 장치 및 이미지 처리 방법
US10694168B2 (en) 2018-04-22 2020-06-23 Corephotonics Ltd. System and method for mitigating or preventing eye damage from structured light IR/NIR projector systems
EP3822588B1 (en) 2018-04-23 2022-09-07 Corephotonics Ltd. An optical-path folding-element with an extended two degree of freedom rotation range
KR20210003856A (ko) * 2018-07-04 2021-01-12 코어포토닉스 리미티드 자동차 또는 감시 애플리케이션을 위한 스캐닝 광학 경로 폴딩 요소들을 구비하는 카메라
CN111316346B (zh) 2018-08-04 2022-11-29 核心光电有限公司 摄像机上方的可切换连续显示信息系统
US11635596B2 (en) 2018-08-22 2023-04-25 Corephotonics Ltd. Two-state zoom folded camera
US11122205B1 (en) 2018-09-14 2021-09-14 Apple Inc. Camera actuator assembly with sensor shift flexure arrangement
CN108965833A (zh) * 2018-09-26 2018-12-07 武汉江宇科技有限公司 一种多向多清晰度图像视频采集装置及其采集方法
US10924667B2 (en) * 2018-10-04 2021-02-16 Samsung Electronics Co., Ltd. Image sensor and image sensing method
US11375092B2 (en) 2018-10-04 2022-06-28 Samsung Electronics Co., Ltd. Image sensor and image sensing method
IL263035B2 (en) * 2018-11-14 2023-10-01 Israel Aerospace Ind Ltd A method for increasing the field of view in a hyperspectral system
US10682955B1 (en) * 2018-12-03 2020-06-16 Beijing Voyager Technology Co., Ltd. Multicamera system for autonomous driving vehicles
CN114615401A (zh) * 2019-01-03 2022-06-10 核心光电有限公司 双重相机及其系统
KR102242437B1 (ko) 2019-01-07 2021-04-20 코어포토닉스 리미티드 슬라이딩 조인트를 갖는 회전 메커니즘
CN109633854B (zh) * 2019-01-08 2020-09-29 瑞声通讯科技(常州)有限公司 一种图像采集器及移动电子设备
EP4224841A1 (en) 2019-03-09 2023-08-09 Corephotonics Ltd. System and method for dynamic stereoscopic calibration
CN110049218A (zh) * 2019-04-19 2019-07-23 信利光电股份有限公司 柔性传感器的成像方法、装置、系统及可读存储介质
EP3981145A1 (de) * 2019-06-06 2022-04-13 FRAUNHOFER-GESELLSCHAFT zur Förderung der angewandten Forschung e.V. Multikanalabbildungsvorrichtung und vorrichtung mit einer multiaperturabbildungsvorrichtung
KR102099232B1 (ko) * 2019-07-03 2020-04-08 주식회사 레티널 소형 반사부를 이용한 카메라 모듈 및 이를 이용한 증강 현실용 광학 장치
KR102365748B1 (ko) 2019-07-31 2022-02-23 코어포토닉스 리미티드 카메라 패닝 또는 모션에서 배경 블러링을 생성하는 시스템 및 방법
KR20210035369A (ko) * 2019-09-23 2021-04-01 삼성전자주식회사 복수의 이미지 센서들에 의해 획득되는 이미지 데이터에 기초하여 비디오 hdr 처리를 수행하기 위한 전자 장치
US11659135B2 (en) 2019-10-30 2023-05-23 Corephotonics Ltd. Slow or fast motion video using depth information
US11949976B2 (en) 2019-12-09 2024-04-02 Corephotonics Ltd. Systems and methods for obtaining a smart panoramic image
CN114641983A (zh) 2019-12-09 2022-06-17 核心光电有限公司 用于获得智能全景图像的系统及方法
CN111007693B (zh) * 2019-12-17 2022-05-31 广州立景创新科技有限公司 广角摄像装置
CN111225221B (zh) * 2020-01-15 2021-12-14 未来新视界文化科技(嘉善)有限公司 全景视频图像处理方法和装置
US11681139B2 (en) 2020-03-19 2023-06-20 Samsung Electro-Mechanics Co., Ltd. Camera module
KR20220003550A (ko) 2020-04-26 2022-01-10 코어포토닉스 리미티드 홀 바 센서 보정을 위한 온도 제어
US11006041B1 (en) 2020-05-07 2021-05-11 Qualcomm Incorporated Multiple camera system for wide angle imaging
CN117372248A (zh) 2020-05-17 2024-01-09 核心光电有限公司 全视场参考图像的图像拼接
WO2021245488A1 (en) 2020-05-30 2021-12-09 Corephotonics Ltd. Systems and methods for obtaining a super macro image
US11516391B2 (en) 2020-06-18 2022-11-29 Qualcomm Incorporated Multiple camera system for wide angle imaging
US11637977B2 (en) 2020-07-15 2023-04-25 Corephotonics Ltd. Image sensors and sensing methods to obtain time-of-flight and phase detection information
EP4045960A4 (en) 2020-07-15 2022-12-14 Corephotonics Ltd. CORRECTING THE ABERRATION OF VIEWPOINTS IN A FOLDED SCANNING CAMERA
KR102345118B1 (ko) * 2020-07-24 2021-12-30 삼성전기주식회사 카메라 모듈 및 이를 포함하는 휴대 단말기
WO2022023914A1 (en) 2020-07-31 2022-02-03 Corephotonics Ltd. Hall sensor - magnet geometry for large stroke linear position sensing
CN112037128B (zh) * 2020-08-21 2023-11-03 苏州巨能图像检测技术有限公司 一种全景视频拼接方法
US11683573B2 (en) 2020-09-02 2023-06-20 Samsung Electronics Co., Ltd. Folded optic for multicamera device and multicamera device including the same
TWI771811B (zh) * 2020-09-18 2022-07-21 大立光電股份有限公司 電子裝置
US20230031023A1 (en) * 2021-07-29 2023-02-02 Qualcomm Incorporated Multiple camera system

Family Cites Families (338)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3698803A (en) 1970-09-09 1972-10-17 Midori Kai Co Ltd Camera for taking hemispherical motion picture
US4114171A (en) 1976-04-06 1978-09-12 Vivitar Corporation Reflex camera with internal zoom lens
US4437745A (en) 1982-09-30 1984-03-20 Stephen Hajnal Three dimensional camera system
JPS60213178A (ja) * 1984-04-06 1985-10-25 Olympus Optical Co Ltd 撮像装置
GB8430980D0 (en) 1984-12-07 1985-01-16 Robinson M Generation of apparently three-dimensional images
US4639586A (en) 1985-02-06 1987-01-27 The United States Of America As Represented By The Secretary Of The Air Force Optically phased laser transmitter
US4740780A (en) 1985-06-24 1988-04-26 Gec Avionics, Inc. Head-up display for automobile
US5012273B1 (en) 1986-05-12 1996-10-01 Asahi Optical Co Ltd Lens shutter type of camera including zoom lens
US4890314A (en) 1988-08-26 1989-12-26 Bell Communications Research, Inc. Teleconference facility with high resolution video display
US6031892A (en) 1989-12-05 2000-02-29 University Of Massachusetts Medical Center System for quantitative radiographic imaging
US5194959A (en) 1989-12-21 1993-03-16 Ricoh Company, Ltd. and Nippon Telegraph and Telephone Corporation Image forming apparatus for forming image corresponding to subject, by dividing optical image corresponding to the subject into plural adjacent optical image parts
US5016109A (en) 1990-07-02 1991-05-14 Bell South Corporation Apparatus and method for segmenting a field of view into contiguous, non-overlapping, vertical and horizontal sub-fields
US5142357A (en) 1990-10-11 1992-08-25 Stereographics Corp. Stereoscopic video camera with image sensors having variable effective position
US5063441A (en) 1990-10-11 1991-11-05 Stereographics Corporation Stereoscopic video cameras with image sensors having variable effective position
US5207000A (en) 1991-06-14 1993-05-04 Industrial Technology Research Institute Method and apparatus useful for determining an angle between a virtual optical axis and a planar surface
US5231461A (en) 1991-12-09 1993-07-27 Hughes Danbury Optical Systems, Inc. Solar monochromator for filter calibration
US5926411A (en) 1991-12-30 1999-07-20 Ioptics Incorporated Optical random access memory
US5686960A (en) 1992-01-14 1997-11-11 Michael Sussman Image input device having optical deflection elements for capturing multiple sub-images
DE4212271C1 (es) 1992-04-11 1993-07-08 Deutsche Forschungsanstalt Fuer Luft- Und Raumfahrt E.V., 5300 Bonn, De
US5243413A (en) 1992-09-02 1993-09-07 At&T Bell Laboratories Color parallax-free camera and display
US5313542A (en) 1992-11-30 1994-05-17 Breault Research Organization, Inc. Apparatus and method of rapidly measuring hemispherical scattered or radiated light
JP2888713B2 (ja) 1993-01-14 1999-05-10 キヤノン株式会社 複眼撮像装置
DE69312257T2 (de) 1993-02-11 1998-01-29 Agfa Gevaert Nv Strahlungsfelderkennungsverfahren
US5586063A (en) 1993-09-01 1996-12-17 Hardin; Larry C. Optical range and speed detection system
US5614941A (en) 1993-11-24 1997-03-25 Hines; Stephen P. Multi-image autostereoscopic imaging system
GB2284273B (en) 1993-11-29 1997-01-08 Hadland Photonics Limited Electronic high speed camera incorporating a beam splitter
JPH089424A (ja) 1994-06-20 1996-01-12 Sanyo Electric Co Ltd 立体画像撮像制御装置
JP3186448B2 (ja) 1994-08-01 2001-07-11 ミノルタ株式会社 立体テレビカメラ
JP3458486B2 (ja) 1994-10-25 2003-10-20 松下電器産業株式会社 全方位撮影装置及び全方位画像合成装置
KR100235343B1 (ko) 1994-12-29 1999-12-15 전주범 영역분할 기법을 이용한 동영상신호 부호화기의 움직임 벡터 측정장치
JPH08194274A (ja) 1995-01-13 1996-07-30 Olympus Optical Co Ltd 立体撮像装置
US5606627A (en) 1995-01-24 1997-02-25 Eotek Inc. Automated analytic stereo comparator
US5745305A (en) 1995-04-28 1998-04-28 Lucent Technologies Inc. Panoramic viewing apparatus
US5990934A (en) 1995-04-28 1999-11-23 Lucent Technologies, Inc. Method and system for panoramic viewing
US5539483A (en) 1995-06-30 1996-07-23 At&T Corp. Panoramic projection apparatus
US5793527A (en) 1995-06-30 1998-08-11 Lucent Technologies Inc. High resolution viewing system
JPH0946729A (ja) 1995-08-01 1997-02-14 Olympus Optical Co Ltd 立体撮像装置
US5903306A (en) 1995-08-16 1999-05-11 Westinghouse Savannah River Company Constrained space camera assembly
US6111702A (en) 1995-11-30 2000-08-29 Lucent Technologies Inc. Panoramic viewing system with offset virtual optical centers
US6115176A (en) 1995-11-30 2000-09-05 Lucent Technologies Inc. Spherical viewing/projection apparatus
US6141034A (en) 1995-12-15 2000-10-31 Immersive Media Co. Immersive imaging method and apparatus
JPH09214992A (ja) * 1996-02-06 1997-08-15 Asahi Optical Co Ltd 撮像装置
JPH09224180A (ja) * 1996-02-15 1997-08-26 Matsushita Electric Ind Co Ltd 撮像装置
US5640222A (en) 1996-03-15 1997-06-17 Paul; Eddie Method and apparatus for producing stereoscopic images
US6850279B1 (en) 1996-06-18 2005-02-01 Sony Corporation Optical image recording system, and associated processing system
AU3166097A (en) * 1996-06-18 1998-01-07 Herman Scherling Optical image recording system, and associated processing system
US5721585A (en) 1996-08-08 1998-02-24 Keast; Jeffrey D. Digital video panoramic image capture and display system
JPH10142490A (ja) 1996-11-15 1998-05-29 Canon Inc 環境認識装置及びカメラ
AU6515798A (en) 1997-04-16 1998-11-11 Isight Ltd. Video teleconferencing
KR100219638B1 (ko) * 1997-05-27 1999-09-01 윤종용 반사형 프로젝트 장치
US7028899B2 (en) 1999-06-07 2006-04-18 Metrologic Instruments, Inc. Method of speckle-noise pattern reduction and apparatus therefore based on reducing the temporal-coherence of the planar laser illumination beam before it illuminates the target object by applying temporal phase modulation techniques during the transmission of the plib towards the target
DE19903807A1 (de) 1998-05-05 1999-11-11 Zeiss Carl Fa Beleuchtungssystem insbesondere für die EUV-Lithographie
JP3745117B2 (ja) 1998-05-08 2006-02-15 キヤノン株式会社 画像処理装置及び画像処理方法
US6141145A (en) 1998-08-28 2000-10-31 Lucent Technologies Stereo panoramic viewing system
US6128143A (en) 1998-08-28 2000-10-03 Lucent Technologies Inc. Panoramic viewing system with support stand
US6195204B1 (en) 1998-08-28 2001-02-27 Lucent Technologies Inc. Compact high resolution panoramic viewing system
US6144501A (en) 1998-08-28 2000-11-07 Lucent Technologies Inc. Split mirrored panoramic image display
US6285365B1 (en) 1998-08-28 2001-09-04 Fullview, Inc. Icon referenced panoramic image display
US6992700B1 (en) 1998-09-08 2006-01-31 Ricoh Company, Ltd. Apparatus for correction based upon detecting a camera shaking
US7271803B2 (en) 1999-01-08 2007-09-18 Ricoh Company, Ltd. Method and system for simulating stereographic vision
US6611289B1 (en) 1999-01-15 2003-08-26 Yanbin Yu Digital cameras using multiple sensors with multiple lenses
US7015954B1 (en) 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
JP3587506B2 (ja) 1999-08-30 2004-11-10 富士重工業株式会社 ステレオカメラの調整装置
GB2354389A (en) 1999-09-15 2001-03-21 Sharp Kk Stereo images with comfortable perceived depth
GB2354390A (en) 1999-09-16 2001-03-21 Ibm Wide-angle image capture apparatus
US6650774B1 (en) 1999-10-01 2003-11-18 Microsoft Corporation Locally adapted histogram equalization
US6862364B1 (en) 1999-10-27 2005-03-01 Canon Kabushiki Kaisha Stereo image processing for radiography
US6782137B1 (en) 1999-11-24 2004-08-24 General Electric Company Digital image display improvement system and method
JP2001194114A (ja) 2000-01-14 2001-07-19 Sony Corp 画像処理装置および画像処理方法、並びにプログラム提供媒体
JP2001209037A (ja) 2000-01-26 2001-08-03 Olympus Optical Co Ltd 可変ホログラム素子及びそれらを用いた光学装置
US6823021B1 (en) 2000-10-27 2004-11-23 Greenwich Technologies Associates Method and apparatus for space division multiple access receiver
US6701081B1 (en) 2000-06-06 2004-03-02 Air Controls, Inc. Dual camera mount for stereo imaging
US6768509B1 (en) 2000-06-12 2004-07-27 Intel Corporation Method and apparatus for determining points of interest on an image of a camera calibration object
WO2002027372A2 (en) 2000-07-14 2002-04-04 Applied Wdm, Inc. Optical waveguide transmission devices
JP2002040584A (ja) 2000-07-28 2002-02-06 Hamamatsu Photonics Kk 高速撮像カメラ
JP2002158913A (ja) * 2000-11-16 2002-05-31 Canon Inc 撮像装置及び撮像方法
IL139995A (en) 2000-11-29 2007-07-24 Rvc Llc System and method for spherical stereoscopic photographing
EP1231780A3 (en) 2001-02-07 2004-01-14 Sony Corporation Image pickup apparatus
GB2372659A (en) 2001-02-23 2002-08-28 Sharp Kk A method of rectifying a stereoscopic image
JP2002277736A (ja) 2001-03-21 2002-09-25 Olympus Optical Co Ltd 撮像装置
US6421185B1 (en) 2001-04-16 2002-07-16 The United States Of America As Represented By The Secretary Of The Air Force Wide field-of-view imaging system using a spatial light modulator
US6985764B2 (en) 2001-05-03 2006-01-10 Masimo Corporation Flex circuit shielded optical sensor
US6628897B2 (en) 2001-06-20 2003-09-30 Sony Corporation Camera system
WO2003017646A1 (fr) 2001-08-17 2003-02-27 Sony Corporation Dispositif d'imagerie
US20030038814A1 (en) 2001-08-27 2003-02-27 Blume Leo R. Virtual camera system for environment capture
US7116351B2 (en) 2001-10-29 2006-10-03 Sony Corporation Imaging device
JP4198449B2 (ja) 2002-02-22 2008-12-17 富士フイルム株式会社 デジタルカメラ
JP2003260025A (ja) 2002-03-08 2003-09-16 Olympus Optical Co Ltd カプセル型内視鏡
US6768598B2 (en) 2002-04-02 2004-07-27 Sony Corporation Image pickup system
US6861633B2 (en) 2002-06-20 2005-03-01 The Aerospace Corporation Microelectromechanical system optical sensor providing bit image data of a viewed image
US7298392B2 (en) * 2003-06-26 2007-11-20 Microsoft Corp. Omni-directional camera design for video conferencing
US7209161B2 (en) 2002-07-15 2007-04-24 The Boeing Company Method and apparatus for aligning a pair of digital cameras forming a three dimensional image to compensate for a physical misalignment of cameras
JP4407514B2 (ja) 2002-07-18 2010-02-03 ソニー株式会社 撮像データ処理方法、および撮像データ処理装置、並びにコンピュータ・プログラム
JP2004072349A (ja) 2002-08-05 2004-03-04 Canon Inc 撮像装置、及びその制御方法
JP2004080088A (ja) 2002-08-09 2004-03-11 Sony Corp 撮像装置
US7893957B2 (en) 2002-08-28 2011-02-22 Visual Intelligence, LP Retinal array compound camera system
JP2004260787A (ja) * 2002-09-09 2004-09-16 Rohm Co Ltd イメージセンサモジュール
US7084904B2 (en) 2002-09-30 2006-08-01 Microsoft Corporation Foveated wide-angle imaging system and method for capturing and viewing wide-angle images in real time
JP2004170479A (ja) 2002-11-18 2004-06-17 Olympus Corp 撮像装置及びその制御方法
US7583289B2 (en) 2003-01-02 2009-09-01 Ge Security, Inc. Optical block assembly
US6933493B2 (en) 2003-04-07 2005-08-23 Kingpak Technology Inc. Image sensor having a photosensitive chip mounted to a metal sheet
IL155525A0 (en) 2003-04-21 2009-02-11 Yaron Mayer System and method for 3d photography and/or analysis of 3d images and/or display of 3d images
JP3709879B2 (ja) 2003-05-01 2005-10-26 日産自動車株式会社 ステレオ画像処理装置
US7463280B2 (en) 2003-06-03 2008-12-09 Steuart Iii Leonard P Digital 3D/360 degree camera system
WO2004109359A1 (ja) 2003-06-09 2004-12-16 Olympus Corporation 可変ミラー
US6809887B1 (en) 2003-06-13 2004-10-26 Vision Technologies, Inc Apparatus and method for acquiring uniform-resolution panoramic images
JP4233394B2 (ja) 2003-06-17 2009-03-04 オリンパス株式会社 レンズ装置及びそれを用いたデジタルカメラ
US7495694B2 (en) * 2004-07-28 2009-02-24 Microsoft Corp. Omni-directional camera with calibration and up look angle improvements
US20050117015A1 (en) 2003-06-26 2005-06-02 Microsoft Corp. Foveated panoramic camera system
US7336299B2 (en) 2003-07-03 2008-02-26 Physical Optics Corporation Panoramic video system with real-time distortion-free imaging
KR100541028B1 (ko) 2003-07-21 2006-01-11 주식회사 옵토메카 이미지 센서 및 그 제조 방법
US20050057659A1 (en) 2003-09-16 2005-03-17 Takami Hasegawa Camera image shake correcting device
US7028546B2 (en) 2003-10-21 2006-04-18 Instrumented Sensor Technology, Inc. Data recorder
US20050111106A1 (en) 2003-10-31 2005-05-26 Kazuhiro Matsumoto Optical element assembly formed of multiple optical elements such as prisms, and image pickup apparatus using the same in image pickup function section
EP1720045A4 (en) 2004-02-19 2009-11-11 Canon Kk OPTICAL EQUIPMENT AND BEAM SPREADER
US20050185711A1 (en) 2004-02-20 2005-08-25 Hanspeter Pfister 3D television system and method
JP4223420B2 (ja) 2004-03-05 2009-02-12 メガビジョン株式会社 撮影装置
GB0406730D0 (en) 2004-03-25 2004-04-28 1 Ltd Focussing method
JP2005303693A (ja) 2004-04-13 2005-10-27 Auto Network Gijutsu Kenkyusho:Kk カメラ装置
US7593057B2 (en) 2004-07-28 2009-09-22 Microsoft Corp. Multi-view integrated camera system with housing
WO2006017771A1 (en) 2004-08-06 2006-02-16 University Of Washington Variable fixation viewing distance scanned light displays
EP1812968B1 (en) 2004-08-25 2019-01-16 Callahan Cellular L.L.C. Apparatus for multiple camera devices and method of operating same
US7039292B1 (en) 2004-09-09 2006-05-02 Rockwell Collins, Inc. Optical system for vehicle flight control
DE102004045430A1 (de) 2004-09-18 2006-05-18 Deutsche Telekom Ag Vorrichtung zur Bildstabilisierung
CN100556076C (zh) 2004-10-01 2009-10-28 利兰·斯坦福青年大学托管委员会 成像装置及其方法
JP3791847B1 (ja) 2005-08-10 2006-06-28 京セラ株式会社 カメラモジュールおよび該カメラモジュールを搭載した情報端末
WO2006052024A1 (ja) 2004-11-15 2006-05-18 Hitachi, Ltd. ステレオカメラ
US7372996B2 (en) 2004-12-27 2008-05-13 Trw Automotive U.S. Llc Method and apparatus for determining the position of a vehicle seat
JP4742190B2 (ja) 2005-01-13 2011-08-10 国立大学法人 奈良先端科学技術大学院大学 3次元オブジェクト計測装置
US7512262B2 (en) 2005-02-25 2009-03-31 Microsoft Corporation Stereo-based image processing
US20060215054A1 (en) 2005-03-23 2006-09-28 Eastman Kodak Company Wide angle camera with prism array
JP4177826B2 (ja) 2005-03-23 2008-11-05 株式会社東芝 画像処理装置および画像処理方法
JP2006279538A (ja) 2005-03-29 2006-10-12 Sony Corp 撮像装置
US20060238441A1 (en) 2005-04-25 2006-10-26 The Boeing Company Method and apparatus for displaying a stereoscopic image
US20070102622A1 (en) 2005-07-01 2007-05-10 Olsen Richard I Apparatus for multiple camera devices and method of operating same
WO2007014293A1 (en) 2005-07-25 2007-02-01 The Regents Of The University Of California Digital imaging system and method to produce mosaic images
JP5364965B2 (ja) 2005-07-26 2013-12-11 コニカミノルタ株式会社 撮像光学系、撮像レンズ装置及びデジタル機器
KR100716829B1 (ko) * 2005-08-10 2007-05-09 삼성전기주식회사 초박형 모바일 카메라 광학 렌즈 시스템 및 이를 이용한이미지 결상 방법
JP2007081473A (ja) 2005-09-09 2007-03-29 Eastman Kodak Co 複数光学系を有する撮像装置
TW200721803A (en) 2005-10-17 2007-06-01 Via Tech Inc 3-D stereoscopic image display system
US20070164202A1 (en) 2005-11-16 2007-07-19 Wurz David A Large depth of field line scan camera
JP4979928B2 (ja) 2005-11-28 2012-07-18 株式会社トプコン 三次元形状演算装置及び三次元形状演算方法
US8059185B2 (en) 2005-12-28 2011-11-15 Canon Kabushiki Kaisha Photographing apparatus, image display method, computer program and storage medium for acquiring a photographed image in a wide range
JP4661606B2 (ja) * 2006-01-19 2011-03-30 株式会社ニコン 屈曲光学系及び電子撮像装置
US7215479B1 (en) 2006-02-10 2007-05-08 Micron Technology, Inc. Integrated lens system for image sensor and method for manufacturing the same
GB2435360B (en) 2006-02-16 2009-09-23 Imagination Tech Ltd Method and apparatus for determining motion between video images
JP4844177B2 (ja) 2006-03-07 2011-12-28 株式会社ニコン ブレ補正装置及びカメラ
JP2007274542A (ja) 2006-03-31 2007-10-18 Sony Corp 撮像装置および携帯電話機
CN101055342A (zh) 2006-04-12 2007-10-17 鸿富锦精密工业(深圳)有限公司 自动对焦镜头模组
US8433157B2 (en) 2006-05-04 2013-04-30 Thomson Licensing System and method for three-dimensional object reconstruction from two-dimensional images
EP2016759A1 (en) 2006-05-05 2009-01-21 Nokia Corporation Optical image recording device with small height and high resolution
EP2023298A4 (en) 2006-05-09 2010-07-21 Sega Corp IMAGE PROCESSING DEVICE AND IMAGE PROCESSING PROGRAM
US20080007617A1 (en) 2006-05-11 2008-01-10 Ritchey Kurtis J Volumetric panoramic sensor systems
JP4972779B2 (ja) 2006-05-30 2012-07-11 コニカミノルタアドバンストレイヤー株式会社 光学ユニットおよび撮像装置
JP5067021B2 (ja) 2006-06-01 2012-11-07 富士ゼロックス株式会社 画像形成装置、画像形成装置の組立方法及び解体方法並びに画像形成装置に用いられる仮止め部材
JP4851239B2 (ja) 2006-06-05 2012-01-11 株式会社トプコン 画像処理装置及びその処理方法
US8456515B2 (en) * 2006-07-25 2013-06-04 Qualcomm Incorporated Stereo image and video directional mapping of offset
JP2008048293A (ja) 2006-08-18 2008-02-28 Kyocera Corp 撮像装置、およびその製造方法
US20080058629A1 (en) 2006-08-21 2008-03-06 University Of Washington Optical fiber scope with both non-resonant illumination and resonant collection/imaging for multiple modes of operation
DE102006044786A1 (de) 2006-09-14 2008-03-27 Schefenacker Vision Systems Germany Gmbh Kamerasystem, Verfahren zum Betreiben eines Kamerasystems und Sensoreinrichtung eines Kamerasystems
EP1912098B1 (en) 2006-10-12 2012-04-25 Carl Zeiss SMT GmbH Unit magnification projection objective
US7817354B2 (en) 2006-10-25 2010-10-19 Capsovision Inc. Panoramic imaging system
JP5040493B2 (ja) 2006-12-04 2012-10-03 ソニー株式会社 撮像装置及び撮像方法
KR100866491B1 (ko) 2007-01-30 2008-11-03 삼성전자주식회사 영상 처리 방법 및 장치
JP4917060B2 (ja) 2007-02-26 2012-04-18 Hoya株式会社 撮像ユニット及び携帯用電子機器
US7683962B2 (en) 2007-03-09 2010-03-23 Eastman Kodak Company Camera using multiple lenses and image sensors in a rangefinder configuration to provide a range map
US8356035B1 (en) 2007-04-10 2013-01-15 Google Inc. Association of terms with images using image similarity
JP4582423B2 (ja) 2007-04-20 2010-11-17 富士フイルム株式会社 撮像装置、画像処理装置、撮像方法、及び画像処理方法
JP5013078B2 (ja) 2007-04-24 2012-08-29 コニカミノルタアドバンストレイヤー株式会社 レンズ鏡胴及び撮像装置
US20080290435A1 (en) 2007-05-21 2008-11-27 Micron Technology, Inc. Wafer level lens arrays for image sensor packages and the like, image sensor packages, and related methods
JP2008294819A (ja) 2007-05-25 2008-12-04 Sony Corp 撮像装置
US7860214B1 (en) 2007-06-13 2010-12-28 The United States Of America As Represented By Secretary Of Agriculture Correction of x-ray images
US20090003646A1 (en) 2007-06-29 2009-01-01 The Hong Kong University Of Science And Technology Lossless visible watermarking
US20090005112A1 (en) 2007-06-29 2009-01-01 Samsung Electronics Co., Ltd. Optical imaging system configurations for handheld devices
JPWO2009011153A1 (ja) 2007-07-13 2010-09-16 三菱電機株式会社 画像読取装置
JP4900118B2 (ja) 2007-07-31 2012-03-21 コニカミノルタオプト株式会社 カメラモジュールおよび電子機器
TWI383666B (zh) 2007-08-21 2013-01-21 Sony Taiwan Ltd 多重鏡頭相機系統之先進式動態接圖方法
JP5000428B2 (ja) 2007-08-22 2012-08-15 Hoya株式会社 撮像装置
US7973834B2 (en) 2007-09-24 2011-07-05 Jianwen Yang Electro-optical foveated imaging and tracking system
KR20090032261A (ko) 2007-09-27 2009-04-01 삼성전자주식회사 움직임 추정에 기초하여 움직임 보상을 수행하는 영상 처리장치 및 그 방법
JP5152483B2 (ja) 2007-10-05 2013-02-27 ソニー株式会社 撮像装置
EP2208354A4 (en) 2007-10-10 2010-12-22 Gerard Dirk Smits IMAGE PROJECTOR WITH REFLECTIVE LIGHT TRACKING
EP2201784B1 (en) 2007-10-11 2012-12-12 Koninklijke Philips Electronics N.V. Method and device for processing a depth-map
CN101843106B (zh) 2007-11-01 2015-11-25 柯尼卡美能达控股株式会社 摄像装置
KR100927347B1 (ko) 2007-11-13 2009-11-24 파워옵틱스 주식회사 줌렌즈 광학계
JP4831514B2 (ja) 2007-11-13 2011-12-07 独立行政法人情報通信研究機構 設定パラメータ最適化装置およびそのプログラム
US8791984B2 (en) 2007-11-16 2014-07-29 Scallop Imaging, Llc Digital security camera
US9118850B2 (en) * 2007-11-27 2015-08-25 Capso Vision, Inc. Camera system with multiple pixel arrays on a chip
CN100465699C (zh) 2007-12-05 2009-03-04 浙江大学 利用棱镜分光渐晕补偿实现多ccd无缝拼接的光电系统
KR101349589B1 (ko) 2007-12-13 2014-01-10 엘지이노텍 주식회사 카메라 모듈
US8300086B2 (en) 2007-12-20 2012-10-30 Nokia Corporation Image processing for supporting a stereoscopic presentation
US20090185067A1 (en) 2007-12-21 2009-07-23 Stereo Display, Inc. Compact automatic focusing camera
CN101952762B (zh) 2008-01-02 2012-11-28 加利福尼亚大学董事会 高数值孔径远程显微镜设备
US7978222B2 (en) 2008-03-01 2011-07-12 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Systems and methods for image stabilization
WO2009111642A1 (en) 2008-03-05 2009-09-11 Contrast Optical Design & Engineering, Inc. Multiple image camera and lens system
JPWO2009119370A1 (ja) 2008-03-26 2011-07-21 コニカミノルタオプト株式会社 撮像装置
WO2009120928A2 (en) 2008-03-28 2009-10-01 The Trustees Of Columbia University In The City Of New York Generalized assorted pixel camera systems and methods
US7864336B2 (en) 2008-04-28 2011-01-04 Agilent Technologies, Inc. Compact Littrow encoder
CN101571666A (zh) * 2008-04-28 2009-11-04 鸿富锦精密工业(深圳)有限公司 成像设备
US8280194B2 (en) 2008-04-29 2012-10-02 Sony Corporation Reduced hardware implementation for a two-picture depth map algorithm
US9001187B2 (en) 2009-05-11 2015-04-07 CapsoVision, Inc. Capsule imaging system having a folded optical axis
US9171221B2 (en) 2010-07-18 2015-10-27 Spatial Cam Llc Camera to track an object
JP4435867B2 (ja) 2008-06-02 2010-03-24 パナソニック株式会社 法線情報を生成する画像処理装置、方法、コンピュータプログラム、および、視点変換画像生成装置
JP5223486B2 (ja) 2008-06-18 2013-06-26 ソニー株式会社 電子双眼鏡
US8027579B2 (en) 2008-07-24 2011-09-27 Panasonic Corporation Camera driver
JP2010041381A (ja) 2008-08-05 2010-02-18 Nikon Corp 電子カメラ、ステレオ画像生成方法およびステレオ画像生成システム
KR100942925B1 (ko) 2008-08-11 2010-02-22 한국전자통신연구원 스테레오 비전 시스템 및 그 제어방법
WO2010019757A1 (en) 2008-08-14 2010-02-18 Remotereality Corporation Three-mirror panoramic camera
US8305425B2 (en) 2008-08-22 2012-11-06 Promos Technologies, Inc. Solid-state panoramic image capture apparatus
JP2010067014A (ja) 2008-09-11 2010-03-25 Ricoh Co Ltd 画像分類装置及び画像分類方法
JP5527856B2 (ja) 2008-09-25 2014-06-25 コーニンクレッカ フィリップス エヌ ヴェ 三次元画像データ処理
CN102177465B (zh) 2008-10-14 2014-06-18 日本电产三协株式会社 摄影用光学装置
US8267601B2 (en) 2008-11-04 2012-09-18 James Cameron Platform for stereoscopy for hand-held film/video camera stabilizers
JP4852591B2 (ja) 2008-11-27 2012-01-11 富士フイルム株式会社 立体画像処理装置、方法及び記録媒体並びに立体撮像装置
CN101770059B (zh) 2008-12-27 2012-06-20 鸿富锦精密工业(深圳)有限公司 相机模组
US9395617B2 (en) 2009-01-05 2016-07-19 Applied Quantum Technologies, Inc. Panoramic multi-scale imager and method therefor
US8326036B2 (en) 2009-02-20 2012-12-04 Qylur Security Systems, Inc. Automated image separation method
GB0903689D0 (en) 2009-03-03 2009-04-15 Sigmavision Ltd Vehicle tyre measurement
JP5316118B2 (ja) 2009-03-12 2013-10-16 オムロン株式会社 3次元視覚センサ
US20100265313A1 (en) * 2009-04-17 2010-10-21 Sony Corporation In-camera generation of high quality composite panoramic images
US20100278423A1 (en) 2009-04-30 2010-11-04 Yuji Itoh Methods and systems for contrast enhancement
US8503778B2 (en) 2009-05-14 2013-08-06 National University Of Singapore Enhancing photograph visual quality using texture and contrast data from near infra-red images
US8170408B2 (en) 2009-05-18 2012-05-01 Invensense, Inc. Optical image stabilization in a digital still camera or handset
US8194170B2 (en) 2009-06-02 2012-06-05 Algonquin College Axicon lens array
US9124874B2 (en) 2009-06-05 2015-09-01 Qualcomm Incorporated Encoding of three-dimensional conversion information with two-dimensional video sequence
US8405750B2 (en) 2009-06-08 2013-03-26 Aptina Imaging Corporation Image sensors and image reconstruction methods for capturing high dynamic range images
US9479768B2 (en) 2009-06-09 2016-10-25 Bartholomew Garibaldi Yukich Systems and methods for creating three-dimensional image media
CN101581828B (zh) 2009-06-09 2011-06-22 苏州大学 环形孔径超薄光学成像系统
JP5293463B2 (ja) 2009-07-09 2013-09-18 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
US8228417B1 (en) 2009-07-15 2012-07-24 Adobe Systems Incorporated Focused plenoptic camera employing different apertures or filtering at different microlenses
JP5450200B2 (ja) 2009-07-17 2014-03-26 富士フイルム株式会社 撮像装置、方法およびプログラム
TWI389559B (zh) 2009-08-14 2013-03-11 Ind Tech Res Inst 前景影像分離方法
CN101674424B (zh) * 2009-09-27 2011-04-06 北京航空航天大学 一种虚拟扩展成像的装置及方法
US8294073B1 (en) 2009-10-01 2012-10-23 Raytheon Company High angular rate imaging system and related techniques
US9063345B2 (en) 2009-10-19 2015-06-23 Pixar Super light-field lens with doublet lenslet array element
TWM399332U (en) 2009-10-20 2011-03-01 Fujifilm Corp Photographic lens and photographic device
JP5539818B2 (ja) 2009-10-20 2014-07-02 富士フイルム株式会社 撮像レンズおよび撮像装置
US8325187B2 (en) * 2009-10-22 2012-12-04 Samsung Electronics Co., Ltd. Method and device for real time 3D navigation in panoramic images and cylindrical spaces
US8457398B2 (en) 2009-10-27 2013-06-04 Himax Media Solutions, Inc. Image enhancement method and apparatuses utilizing the same
US8514491B2 (en) 2009-11-20 2013-08-20 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
WO2011066275A2 (en) 2009-11-25 2011-06-03 Massachusetts Institute Of Technology Actively addressable aperture light field camera
US8400555B1 (en) 2009-12-01 2013-03-19 Adobe Systems Incorporated Focused plenoptic camera employing microlenses with different focal lengths
US9030530B2 (en) 2009-12-15 2015-05-12 Thomson Licensing Stereo-image quality and disparity/depth indications
US8442392B2 (en) 2009-12-22 2013-05-14 Nokia Corporation Method and apparatus for operating the automatic focus or the optical imaging stabilizing system
US20110213664A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US9128367B2 (en) 2010-03-05 2015-09-08 Panasonic Intellectual Property Management Co., Ltd. 3D imaging device and 3D imaging method
JP5683025B2 (ja) 2010-04-19 2015-03-11 パナソニックIpマネジメント株式会社 立体画像撮影装置および立体画像撮影方法
JP5593118B2 (ja) 2010-04-30 2014-09-17 日本電産サンキョー株式会社 振れ補正機能付き光学ユニット
JP5622443B2 (ja) 2010-06-08 2014-11-12 日本電産サンキョー株式会社 振れ補正機能付き光学ユニット
US20130076924A1 (en) 2010-06-08 2013-03-28 Nidec Sankyo Corporation Shake Correction Device, Photographic Optical Device and Lens Drive Device
JP5138734B2 (ja) 2010-06-15 2013-02-06 シャープ株式会社 撮像レンズ、および撮像モジュール
CN101902657B (zh) 2010-07-16 2011-12-21 浙江大学 一种基于深度图分层的虚拟多视点图像的生成方法
US9485495B2 (en) 2010-08-09 2016-11-01 Qualcomm Incorporated Autofocus for stereo images
TWI409577B (zh) 2010-08-20 2013-09-21 Primax Electronics Ltd 光學影像系統
US20120056987A1 (en) 2010-09-03 2012-03-08 Luke Fedoroff 3d camera system and method
JP5392415B2 (ja) 2010-09-22 2014-01-22 富士通株式会社 ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム
EP2622838B1 (en) 2010-10-01 2015-07-22 Contex A/s Signal intensity matching of image sensors
JP4956658B2 (ja) 2010-10-12 2012-06-20 シャープ株式会社 立体映像変換装置及び立体映像表示装置
TW201222288A (en) 2010-11-22 2012-06-01 Inst Information Industry Image retrieving system and method and computer program product thereof
EP2649558A4 (en) 2010-12-09 2017-08-09 Nanyang Technological University Method and an apparatus for determining vein patterns from a colour image
JP5716465B2 (ja) 2011-03-09 2015-05-13 ソニー株式会社 撮像装置
US9030550B2 (en) 2011-03-25 2015-05-12 Adobe Systems Incorporated Thin plenoptic cameras using solid immersion lenses
US9087375B2 (en) 2011-03-28 2015-07-21 Sony Corporation Image processing device, image processing method, and program
US9172856B2 (en) 2011-03-29 2015-10-27 Microsoft Technology Licensing, Llc Folded imaging path camera
US8928988B1 (en) 2011-04-01 2015-01-06 The Regents Of The University Of California Monocentric imaging
WO2012136388A1 (en) 2011-04-08 2012-10-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Capturing panoramic or semi-panoramic 3d scenes
JP5889880B2 (ja) 2011-04-28 2016-03-22 富士フイルム株式会社 撮像レンズおよび撮像装置
CN203519911U (zh) 2011-04-28 2014-04-02 富士胶片株式会社 成像镜头和成像设备
EP2703867A4 (en) 2011-04-28 2014-12-24 Fujifilm Corp IMAGE REALIZATION OBJECTIVE AND IMAGE REALIZATION DEVICE
CN103038689B (zh) 2011-05-16 2016-01-20 松下电器产业株式会社 透镜单元以及摄像装置
US20120293607A1 (en) * 2011-05-17 2012-11-22 Apple Inc. Panorama Processing
WO2012164339A1 (en) 2011-05-27 2012-12-06 Nokia Corporation Image stitching
JP5882455B2 (ja) 2011-06-15 2016-03-09 マイクロソフト テクノロジー ライセンシング,エルエルシー 高解像度マルチスペクトル画像キャプチャ
TWI507807B (zh) 2011-06-24 2015-11-11 Mstar Semiconductor Inc 自動對焦方法與裝置
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
US8896890B2 (en) 2011-06-30 2014-11-25 Lexmark International, Inc. Image capture system having a folded optical path
JP5848052B2 (ja) 2011-07-21 2016-01-27 日本電産サンキョー株式会社 振れ補正機能付き光学ユニット
US8784301B2 (en) 2011-08-12 2014-07-22 Intuitive Surgical Operations, Inc. Image capture unit and method with an extended depth of field
US20130057655A1 (en) 2011-09-02 2013-03-07 Wen-Yueh Su Image processing system and automatic focusing method
US8988564B2 (en) 2011-09-09 2015-03-24 Apple Inc. Digital camera with light splitter
JPWO2013039035A1 (ja) 2011-09-14 2015-03-26 コニカミノルタ株式会社 撮像レンズ、撮像装置及び携帯端末並びにデジタル機器
US9438889B2 (en) 2011-09-21 2016-09-06 Qualcomm Incorporated System and method for improving methods of manufacturing stereoscopic image sensors
US8855476B2 (en) 2011-09-28 2014-10-07 DigitalOptics Corporation MEMS MEMS-based optical image stabilization
US9495597B2 (en) 2011-10-20 2016-11-15 Monsanto Technology Llc Plant stand counter
US9692991B2 (en) 2011-11-04 2017-06-27 Qualcomm Incorporated Multispectral imaging system
JP2013117568A (ja) 2011-12-01 2013-06-13 Olympus Corp 視差画像取得装置、携帯情報端末及び視差画像取得方法
CN102520505B (zh) * 2011-12-04 2015-02-25 中国科学院光电技术研究所 基于棱镜的双通光学延迟线
US8582220B2 (en) 2011-12-05 2013-11-12 Himax Technologies Limited Lens module
CN202405984U (zh) 2011-12-10 2012-08-29 东莞市旭业光电科技有限公司 一种用于音圈马达的垫片
CN102611828B (zh) 2012-01-11 2014-03-26 四川大学 一种雾天连续视频图像实时性增强处理系统
KR101975893B1 (ko) 2012-03-21 2019-09-10 엘지이노텍 주식회사 카메라 모듈
US9210405B2 (en) 2012-03-22 2015-12-08 Qualcomm Technologies, Inc. System and method for real time 2D to 3D conversion of video in a digital camera
KR101818778B1 (ko) 2012-03-23 2018-01-16 한국전자통신연구원 실감 파노라마 영상 생성을 위한 3d 데이터 포맷 생성/소비 장치 및 방법
US20130260823A1 (en) 2012-03-31 2013-10-03 Ashutosh Y. Shukla Compact Portable Electronic Device Having Augmented Back Volume for Speaker
NL2008639C2 (en) 2012-04-13 2013-10-16 Cyclomedia Technology B V Device, system and vehicle for recording panoramic images, and a device and method for panoramic projection thereof.
JP2013238848A (ja) 2012-04-20 2013-11-28 Hoya Corp 撮像装置
CN103428521A (zh) 2012-05-25 2013-12-04 北京新岸线移动多媒体技术有限公司 一种3d摄像附加镜头和3d摄像头
US9571818B2 (en) 2012-06-07 2017-02-14 Nvidia Corporation Techniques for generating robust stereo images from a pair of corresponding stereo images captured with and without the use of a flash device
EP2677734A3 (en) 2012-06-18 2016-01-13 Sony Mobile Communications AB Array camera imaging system and method
EP2677733A3 (en) 2012-06-18 2015-12-09 Sony Mobile Communications AB Array camera imaging system and method
US9134503B2 (en) 2012-07-06 2015-09-15 Apple Inc. VCM OIS actuator module
US9634051B2 (en) 2012-07-17 2017-04-25 Heptagon Micro Optics Pte. Ltd. Optical devices, in particular computational cameras, and methods for manufacturing the same
WO2014025588A1 (en) 2012-08-08 2014-02-13 Dolby Laboratories Licensing Corporation Image processing for hdr images
JP6207303B2 (ja) 2012-09-10 2017-10-04 キヤノン株式会社 制御装置、制御装置を備えるアクチュエータ、画像振れ補正装置、交換用レンズ、撮像装置、及び自動ステージ
JP6116168B2 (ja) 2012-09-14 2017-04-19 キヤノン株式会社 情報処理装置およびその方法
JP5995624B2 (ja) 2012-09-19 2016-09-21 キヤノン株式会社 撮像装置および交換レンズ
JP5995637B2 (ja) 2012-10-04 2016-09-21 キヤノン株式会社 撮像装置、撮像装置の制御方法、プログラム、記憶媒体
US9398264B2 (en) 2012-10-19 2016-07-19 Qualcomm Incorporated Multi-camera system using folded optics
US9659991B2 (en) 2012-10-22 2017-05-23 Canon Kabushiki Kaisha Image capturing apparatus, manufacturing method thereof, and camera
JP2014112302A (ja) 2012-12-05 2014-06-19 Ricoh Co Ltd 所定領域管理システム、通信方法、及びプログラム
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9671595B2 (en) 2013-01-05 2017-06-06 Light Labs Inc. Methods and apparatus for using multiple optical chains in paralell
US9171355B2 (en) 2013-04-12 2015-10-27 Qualcomm Incorporated Near infrared guided image denoising
US9602806B1 (en) 2013-06-10 2017-03-21 Amazon Technologies, Inc. Stereo camera calibration using proximity data
JP2015036716A (ja) 2013-08-12 2015-02-23 ソニー株式会社 像ぶれ補正装置及び撮像装置
US10178373B2 (en) 2013-08-16 2019-01-08 Qualcomm Incorporated Stereo yaw correction using autofocus feedback
EP2860699A1 (en) 2013-10-11 2015-04-15 Telefonaktiebolaget L M Ericsson (Publ) Technique for view synthesis
US9223118B2 (en) 2013-10-31 2015-12-29 Apple Inc. Small form factor telephoto camera
CN203745777U (zh) 2014-01-10 2014-07-30 瑞声声学科技(深圳)有限公司 阵列式镜头装置
EP3105916A1 (en) 2014-02-13 2016-12-21 Sony Corporation Method and system for adjusting camera settings using corneal reflection
US9316810B2 (en) 2014-03-07 2016-04-19 Apple Inc. Folded telephoto camera lens system
US9557627B2 (en) 2014-03-07 2017-01-31 Apple Inc. Folded camera lens systems
US9383550B2 (en) 2014-04-04 2016-07-05 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US9374516B2 (en) 2014-04-04 2016-06-21 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US10013764B2 (en) 2014-06-19 2018-07-03 Qualcomm Incorporated Local adaptive histogram equalization
US9294672B2 (en) 2014-06-20 2016-03-22 Qualcomm Incorporated Multi-camera system using folded optics free from parallax and tilt artifacts
US9549107B2 (en) 2014-06-20 2017-01-17 Qualcomm Incorporated Autofocus for folded optic array cameras
US9541740B2 (en) 2014-06-20 2017-01-10 Qualcomm Incorporated Folded optic array camera using refractive prisms
US20150373269A1 (en) 2014-06-20 2015-12-24 Qualcomm Incorporated Parallax free thin multi-camera system capable of capturing full wide field of view images
US9819863B2 (en) 2014-06-20 2017-11-14 Qualcomm Incorporated Wide field of view array camera for hemispheric and spherical imaging
US9386222B2 (en) 2014-06-20 2016-07-05 Qualcomm Incorporated Multi-camera system using folded optics free from parallax artifacts
US9832381B2 (en) 2014-10-31 2017-11-28 Qualcomm Incorporated Optical image stabilization for thin cameras
US10334158B2 (en) 2014-11-03 2019-06-25 Robert John Gove Autonomous media capturing
US10070055B2 (en) 2015-03-25 2018-09-04 Massachusetts Institute Of Technology Devices and methods for optically multiplexed imaging
US10142113B2 (en) 2015-06-18 2018-11-27 Bank Of America Corporation Identifying and maintaining secure communications
US20170038502A1 (en) 2015-08-06 2017-02-09 Qualcomm Incorporated Methods and apparatus having a two-surface microlens array for low f-number plenoptic cameras
EP3189361A1 (en) 2015-09-03 2017-07-12 3M Innovative Properties Company Camera

Also Published As

Publication number Publication date
CN104704809B (zh) 2019-03-01
JP2018201214A (ja) 2018-12-20
JP6692640B2 (ja) 2020-05-13
BR112015008296A2 (pt) 2017-07-04
KR102108597B1 (ko) 2020-05-07
JP2016500962A (ja) 2016-01-14
US9398264B2 (en) 2016-07-19
JP6700345B2 (ja) 2020-05-27
US20160295112A1 (en) 2016-10-06
KR20150072439A (ko) 2015-06-29
HUE042567T2 (hu) 2019-07-29
BR112015008296B1 (pt) 2022-03-15
WO2014062481A1 (en) 2014-04-24
EP2910011B1 (en) 2018-12-05
US9838601B2 (en) 2017-12-05
US20180084193A1 (en) 2018-03-22
CN110072048B (zh) 2021-06-18
US10165183B2 (en) 2018-12-25
US20140111650A1 (en) 2014-04-24
EP2910011A1 (en) 2015-08-26
CN104704809A (zh) 2015-06-10
CN110072048A (zh) 2019-07-30

Similar Documents

Publication Publication Date Title
ES2714278T3 (es) Sistema multicámara que usa óptica plegada
ES2685719T3 (es) Cámara de matriz de óptica plegada con prismas refractivos
US9819863B2 (en) Wide field of view array camera for hemispheric and spherical imaging
ES2841402T3 (es) Sistema multicámara que usa óptica plegada sin artefactos de paralaje
KR102225429B1 (ko) 시차 및 틸트 아티팩트들이 없는 폴딩형 광학계를 이용한 멀티-카메라 시스템
US20150373269A1 (en) Parallax free thin multi-camera system capable of capturing full wide field of view images
US20220011661A1 (en) Device comprising a multi-aperture imaging device for generating a depth map