ES2685719T3 - Cámara de matriz de óptica plegada con prismas refractivos - Google Patents

Cámara de matriz de óptica plegada con prismas refractivos Download PDF

Info

Publication number
ES2685719T3
ES2685719T3 ES15741383.2T ES15741383T ES2685719T3 ES 2685719 T3 ES2685719 T3 ES 2685719T3 ES 15741383 T ES15741383 T ES 15741383T ES 2685719 T3 ES2685719 T3 ES 2685719T3
Authority
ES
Spain
Prior art keywords
prism
chamber
camera
image
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES15741383.2T
Other languages
English (en)
Inventor
Todor Georgiev GEORGIEV
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Application granted granted Critical
Publication of ES2685719T3 publication Critical patent/ES2685719T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/001Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
    • G02B13/0055Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing a special optical element
    • G02B13/0065Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing a special optical element having a beam-folding prism or mirror
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/001Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
    • G02B13/0055Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing a special optical element
    • G02B13/006Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing a special optical element at least one element being a compound optical element, e.g. cemented elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/001Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
    • G02B13/0055Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing a special optical element
    • G02B13/0065Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing a special optical element having a beam-folding prism or mirror
    • G02B13/007Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing a special optical element having a beam-folding prism or mirror the beam folding prism having at least one curved surface
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/06Panoramic objectives; So-called "sky lenses" including panoramic objectives having reflecting surfaces
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/04Prisms
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/04Prisms
    • G02B5/045Prism arrays
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/17Bodies with reflectors arranged in beam forming the photographic image, e.g. for reducing dimensions of camera
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B30/00Camera modules comprising integrated lens units and imaging units, specially adapted for being embedded in other devices, e.g. mobile phones or vehicles
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • G03B37/04Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe with cameras or projectors providing touching or overlapping fields of view
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/41Extracting pixel data from a plurality of image sensors simultaneously picking up an image, e.g. for increasing the field of view by combining the outputs of a plurality of sensors
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10TTECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
    • Y10T29/00Metal working
    • Y10T29/49Method of mechanical manufacture
    • Y10T29/49002Electrical device making
    • Y10T29/49117Conductor or circuit manufacturing
    • Y10T29/49119Brush
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10TTECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
    • Y10T29/00Metal working
    • Y10T29/49Method of mechanical manufacture
    • Y10T29/49826Assembling or joining
    • Y10T29/49828Progressively advancing of work assembly station or assembled portion of work

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Cameras In General (AREA)
  • Optical Elements Other Than Lenses (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Lenses (AREA)
  • Structure And Mechanism Of Cameras (AREA)

Abstract

Una cámara de matriz de prismas para capturar una escena de imágenes objetivo, con la cámara de matriz de prismas que comprende: una pluralidad de cámaras (C) situadas alrededor de un eje vertical de simetría de la cámara de matriz de prismas, comprendiendo cada cámara (C) de la pluralidad de cámaras (C): un sensor de imágenes, y un eje óptico (745; 845; 945) colocado en un primer ángulo con respecto al eje vertical de simetría (750; 850; 950), correspondiendo el primer ángulo a un valor angular; y una pluralidad de prismas (700; 800; 900), con cada prisma (700; 800; 900) configurado para dirigir una parte de luz que representa la escena de imágenes objetivo hacia una cámara correspondiente (C) de la pluralidad de cámaras (C) al menos parcialmente por refracción, comprendiendo cada prisma (700; 800; 900): una primera superficie (710; 810; 910) colocada ortogonalmente al eje vertical de simetría (750; 850; 950) de la cámara de matriz de prismas, con la primera superficie (710; 810; 910) colocada de modo que la parte de luz que representa la escena de imágenes objetivo entra en el prisma (700; 800; 900) a través de la primera superficie (710; 810; 910), una segunda superficie (720; 820; 920) colocada de manera que un plano formado por la segunda superficie (720; 820; 920) biseca el primer ángulo entre el eje óptico (745; 845; 945) de la cámara correspondiente (C) y el eje vertical de simetría (750; 850; 950), y una tercera superficie (730; 830; 930), con la segunda superficie (720; 820; 920) configurada para redirigir la parte de luz recibida desde la primera superficie (710; 810; 910) hacia la tercera superficie (730; 830; 930;), con la tercera superficie (730; 830; 930) colocada de manera que la parte de luz que representa la escena de imágenes objetivo sale del prisma (700; 800; 900) a través de la tercera superficie (730; 830; 930) y viaja hacia la correspondiente cámara (C), caracterizado por que: la cámara de matriz de prismas está dispuesta de modo que el eje vertical de simetría (750; 850; 950) de la cámara de matriz de prismas pasa a través de un ápice (A) en un punto de intersección entre la primera superficie (710; 810; 910) y la segunda superficie (720; 820; 920) de cada prisma (700; 800; 900); y el eje óptico (745; 845; 945) de cada cámara (C) de la pluralidad de cámaras (C) pasa a través del ápice (A).

Description

5
10
15
20
25
30
35
40
45
50
55
60
65
DESCRIPCIÓN
Cámara de matriz de óptica plegada con prismas refractivos CAMPO TÉCNICO
[0001] La presente divulgación se refiere a sistemas y procedimientos de formación de imágenes que incluyen una matriz multi-cámara. En particular, la divulgación se refiere a sistemas y procedimientos que habilitan sistemas de formación de imágenes de bajo perfil y dispositivos móviles mientras se mantiene o mejora la calidad de la imagen.
ANTECEDENTES
[0002] Muchos dispositivos móviles, tales como teléfonos móviles y dispositivos informáticos tipo tablet, incluyen cámaras que puede utilizar un usuario para capturar imágenes fijas y/o vídeo. Debido a que los dispositivos móviles están diseñados típicamente para ser relativamente pequeños, puede ser importante diseñar las cámaras o sistemas de formación de imágenes lo más delgados posible para mantener un dispositivo móvil de bajo perfil. Las matrices de sensores de imágenes óptica plegada ("cámaras de matriz") permiten la creación de dispositivos de captura de imágenes de bajo perfil sin acortar la distancia focal ni disminuir la resolución de la imagen en el campo de visión de la matriz de sensores. Redirigiendo la luz hacia cada sensor en la matriz usando una superficie principal y una secundaria, y colocando los conjuntos de lentes utilizados para enfocar la luz entrante entre las superficies principal y secundaria, la matriz de sensores puede colocarse sobre un sustrato plano perpendicular a los conjuntos de lentes. La distancia focal más larga permite implementar características como el zoom óptico e incorporar ópticas más complicadas que requieren más espacio de lo que comúnmente ofrece la cámara móvil tradicional, como agregar más elementos ópticos.
[0003] Algunas cámaras de matriz emplean un espejo o prisma central con múltiples facetas para dividir la luz entrante que comprende la imagen objetivo en múltiples partes para la captura mediante los sensores de la matriz, en el que cada faceta dirige una parte de la luz de la imagen objetivo hacia un sensor en la matriz. Cada parte de la luz dividida puede hacerse pasar a través de un conjunto de lentes y ser reflejada por una superficie colocada directamente encima o debajo de un sensor, de manera que cada sensor capture una parte de la imagen. Los campos de visión del sensor se pueden superponer para ayudar a unir las partes capturadas en una imagen completa.
[0004] Los documentos WO 2007/129147 y WO 2012/164339 divulgaron un ejemplo de una cámara de matriz. RESUMEN
[0005] Las matrices de sensores óptica plegada y técnicas de captura de imágenes descritas en el presente documento permiten la creación de dispositivos de captura de imágenes de bajo perfil sin acortar la distancia focal ni disminuir la resolución de la imagen a través del campo de visión de la matriz de sensores, en el que las imágenes capturadas han aumentado el campo de visión y eliminado o reducido las alteraciones del campo de visión (FOV) de la cámara. Un desafío de las cámaras de matriz existentes es la degradación de la calidad debido a que una cámara en la matriz ve por encima o alrededor de su espejo correspondiente. En consecuencia, se capturan datos de imagen que no representan la escena de imágenes, lo cual ocasiona problemas durante la unión de imágenes. Otro desafío al que se enfrentan las cámaras de matriz es que el FOV de toda la matriz está prácticamente limitado a alrededor de 60 grados debido a los límites en el FOV de cada cámara individual. Típicamente, acercar una cámara al espejo central podría aumentar el FOV, sin embargo, en las cámaras de matriz de bajo perfil, la cámara comenzará a verse en el espejo y no se logrará un aumento significativo en el FOV.
[0006] Los problemas anteriormente descritos, entre otros, se tratan en algunos modos de realización mediante las cámaras de matriz de prismas descritas en el presente documento. Algunos de los modos de realización pueden emplear un prisma refractivo central, por ejemplo con múltiples superficies o facetas, para dividir la luz entrante que comprende la imagen objetivo en múltiples partes para su captura mediante los sensores en la matriz. En algunos modos de realización, el prisma puede tener un índice de refracción de aproximadamente 1,5 o superior, y se puede conformar y colocar para reducir las alteraciones de aberración cromática y aumentar el FOV de un sensor. Por ejemplo, una superficie superior del prisma puede colocarse ortogonalmente al eje vertical de simetría de la matriz (que también puede ser el eje óptico de la matriz). En algunos modos de realización, una superficie interior inferior del prisma puede colocarse formando un ángulo a con respecto al eje vertical de simetría, y una superficie exterior inferior (por ejemplo, mirando a la cámara correspondiente) puede colocarse ortogonalmente a la superficie superior. En otros modos de realización, una superficie interior inferior del prisma puede colocarse formando un ángulo a con respecto al eje vertical de simetría, y una superficie exterior inferior (por ejemplo, mirando a la cámara correspondiente) puede colocarse formando un ángulo 2a con respecto a la superficie superior. En algunos ejemplos, una lente negativa se puede incorporar o unir a la superficie exterior inferior para aumentar aún más el FOV. Dichos ejemplos pueden proporcionar un FOV total de la matriz de hasta 180 grados.
5
10
15
20
25
30
35
40
45
50
55
60
65
[0007] Cada parte de la luz dividida se puede hacer pasar a través de un conjunto de lentes y ser reflejada por una superficie reflectante adicional opcional (o refractarse a través de un prisma adicional opcional) colocada directamente por encima o por debajo de un sensor, de manera que cada sensor capte una parte de la imagen. En algunas circunstancias, cada sensor en la matriz puede capturar una parte de la imagen que se superpone ligeramente con las partes capturadas por los sensores próximos en la matriz, y estas partes pueden ensamblarse en la imagen objetivo, por ejemplo, mediante combinación lineal u otras técnicas de unión de imágenes.
[0008] Un aspecto se refiere a una cámara de matriz de prismas para la captura de una escena de imágenes objetivo, comprendiendo el sistema una pluralidad de cámaras colocadas alrededor de un eje vertical de simetría de la cámara de matriz de prismas, comprendiendo cada cámara de la pluralidad de cámaras un sensor de imágenes, y un eje óptico colocado en un primer ángulo con relación al eje vertical de simetría, correspondiendo el primer ángulo a un valor angular; y una pluralidad de prismas, con cada prisma configurado para dirigir una parte de luz que representa la escena de imágenes objetivo hacia una cámara correspondiente de la pluralidad de cámaras al menos parcialmente por refracción, comprendiendo cada prisma una primera superficie colocada ortogonalmente al eje vertical de simetría de la cámara de matriz de prismas, con la primera superficie colocada de manera que la parte de luz que representa la escena de imágenes objetivo entre en el prisma a través de la primera superficie, una segunda superficie colocada de manera que un plano formado por la segunda superficie biseque el primer ángulo entre el eje óptico de la cámara correspondiente y el eje vertical de simetría, y una tercera superficie, con la segunda superficie configurada para redirigir la parte de luz recibida desde la primera superficie hacia la tercera superficie, con la tercera superficie colocada de manera que la parte de luz que representa la escena de imágenes objetivo salga del prisma y viaje hacia la cámara correspondiente.
[0009] Otro aspecto se refiere a un procedimiento de fabricación de una cámara de matriz de prismas, comprendiendo el procedimiento la determinación de un eje vertical de simetría de la cámara de matriz de prismas; y para cada cámara de una pluralidad de cámaras de la cámara de matriz de prismas, la colocación de la cámara de modo que un eje óptico de la cámara esté colocado en un primer ángulo con respecto al eje vertical de simetría, correspondiendo el primer ángulo a un valor angular, y la colocación de un elemento óptico de forma que una primera superficie del elemento óptico se coloque ortogonalmente al eje vertical de simetría, y una segunda superficie del elemento óptico se coloca de manera que un plano formado por la segunda superficie biseque el primer ángulo.
[0010] Otro aspecto se refiere a un conjunto de prisma para uso en una cámara de matriz, comprendiendo el conjunto de prisma un eje vertical de simetría; y una pluralidad de elementos ópticos refractivos asociados cada uno con una correspondiente de una pluralidad de cámaras de la cámara de matriz y configuradas para pasar una parte de luz que representa una escena de imágenes objetivo hacia la correspondiente de la pluralidad de cámaras, comprendiendo cada una de la pluralidad de elementos ópticos refractivos una primera superficie colocada ortogonalmente al eje vertical de simetría de la cámara de matriz de prismas, con la primera superficie colocada de manera que la parte de luz que representa la escena de imágenes objetivo se introduzca en el prisma a través de la primera superficie, una segunda superficie colocada de forma que un plano formado por la segunda superficie biseca el primer ángulo entre el eje óptico de la cámara correspondiente y el eje vertical de simetría, y una tercera superficie, con la segunda superficie configurada para redirigir la parte de luz recibida desde la primera superficie hacia la tercera superficie, con la tercera superficie colocada de manera que la parte de luz que representa la escena de imágenes objetivo salga del prisma y viaje hacia la cámara correspondiente, y con un vértice definido por una intersección de la primera superficie y la segunda superficie.
[0011] Otro aspecto se refiere a un aparato para la captura de imágenes, que comprende medios para capturar una pluralidad de partes de una escena de imágenes objetivo; medios para refractar la luz que representan cada parte de la pluralidad de partes, con los medios para refractar la luz que comprenden facetas dispuestas en una relación geométrica que comprende un primer plano colocado ortogonalmente a un eje vertical de simetría de los medios para refractar la luz, un segundo plano colocado en un primer ángulo con relación al eje vertical de simetría, con el primer ángulo correspondiente a un primer valor angular, y un tercer plano colocado en un segundo ángulo con relación a la primera superficie, correspondiendo el segundo ángulo a un segundo valor angular que es sustancialmente igual al doble del primer valor angular; y medios para ensamblar la pluralidad de partes en una imagen final de la escena de imágenes objetivo.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
[0012] A continuación se describirán los aspectos divulgados en conjunción con los dibujos y apéndices adjuntos, proporcionados para ilustrar y no para limitar los aspectos divulgados, en los que las mismas designaciones denotan los mismos elementos.
La figura 1A ilustra una vista lateral en sección transversal de un modo de realización de una cámara de matriz
de óptica plegada.
La figura 1B ilustra una vista lateral en sección transversal de otro modo de realización de una cámara de matriz
de óptica plegada.
5
10
15
20
25
30
35
40
45
50
55
60
65
La figura 2 ilustra un diagrama de bloques de un modo de realización de un dispositivo de captura de imágenes.
Las figuras 3A a 3C ilustran un modo de realización de una cámara de matriz libre de alteraciones de paralaje e inclinación.
La figura 4 ilustra un ejemplo de parámetros de diseño para un sensor y espejo de la cámara de matriz.
Las figuras 5A-5C ilustran un modo de realización de un prisma para una cámara de matriz de prismas.
Las figuras 6A-6C ilustran otro modo de realización de un prisma para una cámara de matriz de prismas.
Las figuras 7A-7C ilustran otro modo de realización de un prisma para una cámara de matriz de prismas.
La figura 8 ilustra un modo de realización de un proceso de captura de imágenes óptica plegada.
DESCRIPCIÓN DETALLADA
I. Introducción
[0013] Las implementaciones divulgadas en el presente documento proporcionan sistemas, procedimientos y aparatos para generar imágenes que tienen un amplio campo de visión, con las imágenes sustancialmente libres de alteraciones de paralaje e inclinación, usando una cámara de matriz con óptica plegada. Los aspectos de la presente invención se refieren a una cámara de matriz que tiene un amplio campo de visión, por ejemplo aproximadamente 180 grados. Reemplazar los espejos por prismas corrige los dos problemas mencionados anteriormente: cámaras que ven sobre el espejo central y el FOV limitado de cada cámara, al mismo tiempo. Por ejemplo, una amplia gama de cámaras con diseño de prisma no ve por encima del borde o el vértice del prisma debido a los efectos de la reflexión interna total. Esto soluciona el primer problema de manera bastante eficiente. Además, las cámaras obtienen un FOV más amplio. En una clase de diseños, esto está relacionado con la introducción de aberraciones cromáticas. Otro modo de realización del diseño de la cámara de matriz de prismas está completamente libre de aberraciones. Con lentes de índice de refracción más altos y otros materiales, el campo de visión de las cámaras individuales no está restringido, y permanece exactamente igual que con una "cámara libre". En otro modo de realización del diseño de la cámara de matriz de prismas, agregar lentes negativas al prisma puede aumentar adicionalmente el FOV de las cámaras individuales hasta 90 grados, haciendo posible un FOV total de 180 grados.
[0014] Cada sensor de la matriz "ve" una parte de la escena de imágenes utilizando un prisma central correspondiente, y en consecuencia cada par sensor/espejo individual representa solo una sub-apertura de la cámara de matriz total. La cámara de matriz completa tiene una apertura sintética generada basada en la suma de todos los rayos de apertura individuales, es decir, basada en la unión de las imágenes generadas por las subaperturas.
[0015] En la siguiente descripción, se dan detalles específicos para proporcionar una comprensión completa de los ejemplos. Sin embargo, los ejemplos pueden practicarse sin estos detalles específicos.
II. Descripción general de las cámaras de matriz de óptica plegada
[0016] Con referencia ahora a las figuras 1A y 1B, a continuación se describirán con mayor detalle ejemplos de un conjunto de múltiples sensores de óptica plegada 100A, 100B adecuados para uso con los sistemas y técnicas de enfoque automático descritos en el presente documento. La figura 1A ilustra una vista lateral en sección transversal de un ejemplo de una matriz de óptica plegada 100A que incluye sensores de imágenes 105, 125, superficies reflectantes de redireccionamiento de luz secundarias 110, 135, conjuntos de lentes 115, 130 y una superficie reflectante central 120 que pueden montarse todos en un sustrato 150. La figura 1B ilustra una vista lateral en sección transversal de un modo de realización de una matriz de sensores de óptica plegada que incluye prismas centrales 141, 146 para las superficies de redireccionamiento de luz principales 122, 124 y prismas adicionales que forman las superficies de redireccionamiento de luz secundarias 135, 110.
[0017] Con referencia a la figura 1A, los sensores de imágenes 105, 125 pueden incluir, en ciertos modos de realización, un dispositivo de carga acoplada (CCD), un sensor de semiconductor de óxido de metal complementario (CMOS), o cualquier otro dispositivo sensor de imágenes que recibe luz y genera datos de imagen en respuesta a la imagen recibida. Los sensores de imágenes 105, 125 pueden ser capaces de obtener datos de imágenes de fotografías y también pueden proporcionar información con respecto al movimiento en un flujo de vídeo capturado. Los sensores 105 y 125 pueden ser sensores individuales o pueden representar matrices de sensores, como una matriz 3x1. Sin embargo, como comprenderá un experto en la técnica, se puede usar cualquier matriz adecuada de sensores en las implementaciones divulgadas.
5
10
15
20
25
30
35
40
45
50
55
60
65
[0018] Los sensores 105, 125 puede estar montados en el sustrato 150 como se muestra en la figura 1A. En algunos modos de realización, todos los sensores pueden estar en un plano montados en el sustrato plano 150. El sustrato 150 puede ser cualquier material sustancialmente plano adecuado. La superficie reflectante central 120 y los conjuntos de lentes 115, 130 también se pueden montar en el sustrato 150. Son posibles múltiples configuraciones para montar una matriz o matrices de sensores, una pluralidad de conjuntos de lentes y una pluralidad de superficies reflectantes o refractivas principales y secundarias.
[0019] Todavía en referencia a la figura 1A, en algunos modos de realización, una superficie reflectante central 120 puede utilizarse para redirigir la luz a partir de una escena de imágenes objetivo hacia los sensores 105, 125. La superficie reflectante central 120 puede ser un espejo o una pluralidad de espejos, y puede ser plana o conformarse según sea necesario para redirigir apropiadamente la luz entrante a los sensores de imágenes 105, 125. Por ejemplo, en algunos modos de realización, la superficie reflectante central 120 puede ser un espejo dimensionado y conformado para reflejar los rayos de luz entrantes a través de los conjuntos de lentes 115, 130 hacia los sensores 105, 125, respectivamente. La superficie reflectante central 120 puede dividir la luz que comprende la imagen objetivo en múltiples partes y dirigir cada parte a un sensor diferente. Por ejemplo, un primer lado 122 de la superficie reflectante central 120 (también denominada superficie de redireccionamiento de luz principal, ya que otros modos de realización pueden implementar un prisma refractivo en lugar de una superficie reflectante) puede enviar una parte de la luz correspondiente a un primer campo visión 140 hacia el sensor izquierdo 105, mientras que un segundo lado 124 envía una segunda parte de la luz correspondiente a un segundo campo de visión 145 hacia el sensor derecho 125. Debería apreciarse que, juntos, los campos de visión 140, 145 de los sensores de imágenes cubren al menos la imagen objetivo.
[0020] En algunos modos de realización en los que cada uno de los sensores de recepción es una matriz de una pluralidad de sensores, la superficie reflectante central puede estar hecha de múltiples superficies reflectantes formando un ángulo entre ellas con el fin de enviar una parte diferente de la escena de imágenes objetivo hacia cada uno de los sensores. Cada sensor en la matriz puede tener un campo de visión sustancialmente diferente, y en algunos modos de realización, los campos de visión pueden superponerse. Ciertos modos de realización de la superficie reflectante central pueden tener superficies complicadas no planas para aumentar los grados de libertad cuando se diseña el sistema de lente. Además, aunque la superficie central se analiza como una superficie reflectante, en otros modos de realización la superficie central puede ser refractiva. Por ejemplo, la superficie central puede ser un prisma configurado con una pluralidad de facetas, donde cada faceta dirige una parte de la luz que comprende la escena hacia uno de los sensores.
[0021] Después de ser reflejada por la superficie reflectante central 120, la luz puede propagarse a través de los conjuntos de lentes 115, 130 como se ilustra en la figura 1 A. Se pueden proporcionar uno o más conjuntos de lentes 115, 130 entre la superficie reflectante central 120 y los sensores 105, 125 y las superficies reflectantes 110, 135. Los conjuntos de lentes 115, 130 se pueden usar para enfocar la parte de la imagen objetivo que se dirige hacia cada sensor.
[0022] En algunos modos de realización, cada conjunto de lentes puede comprender una o más lentes y un actuador para mover la lente entre una pluralidad de diferentes posiciones de lente a través de una carcasa. El actuador puede ser un motor de bobina móvil (VCM), un sistema mecánico microelectrónico (MEMS) o una aleación con memoria de forma (SMA). El conjunto de lentes puede comprender adicionalmente un accionador de lentes para controlar el accionador.
[0023] Pueden implementarse técnicas de enfoque automático tradicionales cambiando la distancia focal entre las lentes 115, 130 y el correspondiente sensor 105, 125 de cada cámara. En algunos modos de realización, esto se puede lograr moviendo un tubo portalentes. Otros modos de realización pueden ajustar el enfoque moviendo el espejo central hacia arriba o hacia abajo o ajustando el ángulo del espejo con relación al conjunto de lentes. Ciertos modos de realización pueden ajustar el enfoque moviendo los espejos laterales sobre cada sensor. Tales modos de realización pueden permitir que el conjunto ajuste el enfoque de cada sensor individualmente. Además, es posible que algunos modos de realización cambien el enfoque de todo el conjunto de una vez, por ejemplo colocando una lente como una lente líquida en todo el conjunto. En ciertas implementaciones, la fotografía computacional se puede usar para cambiar el punto focal de la matriz de cámara.
[0024] Como se ilustra en la figura 1A, se pueden proporcionar múltiples superficies reflectantes laterales, tales como las superficies reflectantes 110 y 135, alrededor del espejo central 120 enfrente de los sensores. Después de pasar a través de los conjuntos de lentes, las superficies reflectantes laterales 110, 135 (también denominadas superficies secundarias de redireccionamiento de luz, ya que otros modos de realización pueden implementar un prisma refractivo en lugar de una superficie reflectante) pueden reflejar la luz (orientación "descendente" como se representa en la figura 1A) sobre los sensores planos 105, 125. Como se representa, el sensor 105 puede colocarse debajo de la superficie reflectante 110 y el sensor 125 puede colocarse debajo de la superficie reflectante 135. Sin embargo, en otros modos de realización, los sensores pueden estar por encima de las superficies laterales reflejadas, y las superficies reflectantes laterales pueden configurarse para reflejar la luz hacia arriba. Son posibles otras configuraciones adecuadas de las superficies reflectantes laterales y los sensores en las que la luz de cada
5
10
15
20
25
30
35
40
45
50
55
60
65
conjunto de lentes se redirige hacia los sensores. Ciertos modos de realización pueden permitir el movimiento de las superficies reflectantes laterales 110, 135 para cambiar el enfoque o campo de visión del sensor asociado.
[0025] El campo de visión de cada sensor, 140, 145 puede desviarse hacia el espacio de objetos mediante la superficie del espejo central 120 asociado con ese sensor. Se pueden emplear procedimientos mecánicos para inclinar los espejos y/o mover los prismas en la matriz de manera que el campo de visión de cada cámara pueda dirigirse a diferentes ubicaciones en el campo de objetos. Esto se puede usar, por ejemplo, para implementar una cámara de alto rango dinámico, para aumentar la resolución del sistema de cámara, o para implementar un sistema de cámara plenóptico. El campo de visión de cada sensor (o cada matriz de 3x1) puede proyectarse en el espacio de objeto, y cada sensor puede capturar una imagen parcial que comprende una parte de la escena objetivo de acuerdo con el campo de visión de ese sensor. En algunos modos de realización, los campos de visión 140, 145 para las matrices de sensores opuestas 105, 125 pueden superponerse en una cierta cantidad 150. Para reducir la superposición 150 y formar una única imagen, se puede usar un proceso de unión como se describe a continuación para combinar las imágenes de las dos matrices de sensores opuestas 105, 125. Ciertos modos de realización del proceso de unión pueden emplear la superposición 150 para identificar características comunes al unir las imágenes parciales entre sí. Después de unir las imágenes superpuestas entre sí, la imagen unida se puede recortar a una relación de aspecto deseada, por ejemplo 4:3 o 1:1, para formar la imagen final.
[0026] La figura 1B ilustra una vista lateral en sección transversal de otro modo de realización de una cámara de matriz de óptica plegada 100B. Como se muestra en la figura 1B, un conjunto de sensor 100B incluye un par de sensores de imágenes 105, 125 montados cada uno en el sustrato 150. El conjunto de lentes de sensor 100B también incluye conjuntos de lentes 115, 130 correspondientes a sensores de imágenes 105, 125, respectivamente, el componente óptico 116, 117, que incluyen cada uno una superficie de redireccionamiento de luz secundaria 110, 135, respectivamente, colocada adyacente al cristal de cubierta 106, 126 de los sensores de imágenes 105, 125, respectivamente. En algunos modos de realización, el cristal de cubierta 106, 126 está acoplado físicamente al sensor 105, 125 y a los componentes ópticos 116, 117. Algunos modos de realización incluyen una lente 127, 129 dispuesta entre el cristal de cubierta 106, 126 y los componentes ópticos 116, 117. En algunos modos de realización, un lado del cristal de cubierta 106, 126 está físicamente acoplado al sensor 105, 125 el otro lado está acoplado físicamente a la lente 127, 129. En algunos modos de realización, tal lente 127, 129 está además físicamente acoplada al componente óptico 116, 117. Por ejemplo, en algunos modos de realización, el sensor de imágenes 105, 125, el cristal de cubierta 106, 117 y la lente 127, 129 forman una pila que está físicamente acoplada entre sí y acoplada al componente óptico 116, 117 para fijar su alineación a una disposición conocida. Algunos modos de realización no incluyen la lente 127, 129. La superficie de redireccionamiento de luz principal 122 del prisma refractivo 141 dirige una parte de luz desde la escena de imágenes objetivo a lo largo del eje óptico 121 a través del conjunto de lentes 115, es redirigida por la superficie de redireccionamiento de luz secundaria 110, pasa a través del cristal de cubierta 106 y es incidente sobre el sensor 105. La superficie de redireccionamiento de luz principal 124 del prisma refractivo 146 dirige una parte de luz recibida desde la escena de imágenes objetivo a lo largo del eje óptico 123 a través del conjunto de lentes 130. La luz es redirigida por la superficie de redireccionamiento de luz secundaria 135, pasa a través del cristal de cubierta 126, y es incidente sobre el sensor 125. La cámara de matriz de óptica plegada 100B es ilustrativa de un modo de realización de cámara de matriz que implementa prismas refractivos en lugar de las superficies reflectantes de la cámara de matriz 100A de la figura 1a. Se proporciona cada uno de los prismas refractivos 141, 146 en una abertura en el sustrato 150 de manera que las superficies de direccionamiento de luz principales 122, 124 están debajo del plano formado por el sustrato y reciben luz que representa la escena de imágenes objetivo.
[0027] Los sensores 105, 125 puede estar montados en el sustrato 150 como se muestra en la figura 1B. En algunos modos de realización, todos los sensores pueden estar en un plano montados en el sustrato plano 150. El sustrato 150 puede ser cualquier material sustancialmente plano adecuado. El sustrato 150 puede incluir una abertura como la descrita anteriormente para permitir que la luz entrante pase a través del sustrato 150 hacia las superficies de redireccionamiento de luz principales 122, 124. Son posibles múltiples configuraciones para montar una matriz o matrices de sensores, así como los otros componentes de la cámara ilustrados, en el sustrato 150.
[0028] Todavía en referencia a la figura 1B, las superficies de redireccionamiento de luz principales 122, 124 pueden ser superficies de prisma como se ilustra, o pueden ser un espejo o una pluralidad de espejos, y pueden ser planas o conformadas, según sea necesario para redirigir adecuadamente la luz entrante a los sensores de imágenes 105, 125. En algunos modos de realización, las superficies de redireccionamiento de luz principales 122, 124 pueden formarse como un prisma o una pirámide de espejos central como se ilustra en la figura 1A. El prisma o la pirámide de espejos central, u otro componente óptico puede dividir la luz que representa la imagen objetivo en múltiples partes y dirigir cada parte a un sensor diferente. Por ejemplo, una superficie de redireccionamiento de luz principal 122 puede enviar una parte de la luz correspondiente a un primer campo de visión hacia el sensor izquierdo 105 mientras que la superficie de redireccionamiento de luz principal 124 envía una segunda parte de la luz correspondiente a un segundo campo de visión hacia el sensor derecho 125. En algunos modos de realización en los que cada uno de los sensores de recepción es una matriz de una pluralidad de sensores, las superficies de redireccionamiento de luz pueden estar hechas de múltiples superficies reflectantes formando un ángulo entre ellas para enviar una parte diferente de la escena de imágenes objetivo hacia cada uno de los sensores. Debería
5
10
15
20
25
30
35
40
45
50
55
60
65
apreciarse que, juntos, los campos de visión de las cámaras cubren al menos la imagen objetivo, y pueden alinearse y unirse después de la captura para formar una imagen final capturada por la apertura sintética de la matriz.
[0029] Cada sensor en la matriz puede tener un campo de visión sustancialmente diferente, y en algunos modos de realización los campos de visión pueden superponerse. Como se describe con más detalle a continuación, las relaciones espaciales entre las diversas superficies de redireccionamiento de luz principales 122, 124, los conjuntos de lentes 115, 130 y los sensores 105, 125 pueden predeterminarse para reducir o eliminar las alteraciones de paralaje e inclinación que se producen entre los diferentes campos de visión.
[0030] Como se ilustra en las figuras 1A y 1B, cada cámara de matriz tiene una altura total H. En algunos modos de realización, la altura total H puede ser de aproximadamente 4,5 mm o menos. En otros modos de realización, la altura total H puede ser de aproximadamente 4,0 mm o menos. Aunque no se ilustra, la cámara de matriz completa 100A, 100B puede proporcionarse en una carcasa que tiene una altura interior correspondiente de aproximadamente 4,5 mm o menos o aproximadamente 4,0 mm o menos.
[0031] Algunas configuraciones de tales cámaras de matriz 100A, 100B pueden sufrir de alteraciones de paralaje y de inclinación basándose en la posición relativa de los sensores y las superficies de redireccionamiento de luz, presentando desafíos con respecto a la degradación de la calidad debido a paralaje y la inclinación entre diferentes vistas del mismo objeto como se ve desde diferentes cámaras de la matriz. El paralaje y la inclinación impiden la unión perfecta de las imágenes capturadas por cada cámara en una imagen final completamente libre de alteraciones. Dependiendo de la profundidad (por ejemplo, distancia de la lente al objeto), la imagen de una cámara se puede desplazar en posición y ángulo en relación con una imagen superpuesta de otra cámara. El paralaje y la inclinación resultantes pueden causar imágenes fantasma de "doble imagen" en el área de la imagen correspondiente a los campos de visión superpuestos cuando las imágenes se unen o fusionan. Incluso si la matriz está estructurada de manera que no haya superposición en los campos de visión del sensor, el paralaje da como resultado características discontinuas en la imagen, como líneas y bordes, cuando tales características cruzan los bordes entre los campos de visión del sensor.
[0032] Tal como se utiliza en el presente documento, el término "cámara" se refiere a un sensor de imágenes, sistema de lentes, y una serie de correspondientes superficies de redireccionamiento de luz, por ejemplo la superficie de redireccionamiento de luz principal 124, el conjunto de lentes 130, la superficie de redireccionamiento de luz secundaria 135, y sensor 125 como se ilustra en la figura 1. Una matriz de múltiples sensores de óptica plegada, denominada "matriz" o "cámara de matriz", puede incluir una pluralidad de tales cámaras en diversas configuraciones. Algunos modos de realización de configuraciones de matriz se describen en la Publicación de Solicitud de EE. UU. n.° 2014/0111650, presentada el 15 de marzo de 2013 y titulada "MULTI-CAMERA SYSTEM USING FOLDED OPTICS [SISTEMA MULTICÁMARA CON ÓPTICA PLEGADA]". Son posibles otras configuraciones de cámara de matriz que se beneficiarían de las relaciones geométricas para la reducción o eliminación de alteraciones de paralaje descritas en el presente documento.
[0033] La figura 2 representa un diagrama de bloques de alto nivel de un dispositivo 200 que tiene un conjunto de componentes que incluye un procesador de imágenes 220 vinculado a una o más cámaras 215a-n. El procesador de imágenes 220 también está en comunicación con una memoria de trabajo 205, una memoria 230 y un procesador de dispositivo 250, que a su vez está en comunicación con el almacenamiento 210 y la pantalla electrónica 225.
[0034] El dispositivo 200 puede ser un teléfono celular, una cámara digital, una tablet, un asistente digital personal o similar. Existen muchos dispositivos informáticos portátiles en los que un sistema de formación de imágenes de grosor reducido tal como se describe en el presente documento proporcionaría ventajas. El dispositivo 200 también puede ser un dispositivo informático estacionario o cualquier dispositivo en el que un sistema de formación de imágenes delgado sería ventajoso. Una pluralidad de aplicaciones puede estar disponible para el usuario en el dispositivo 200. Estas aplicaciones pueden incluir aplicaciones fotográficas y de vídeo tradicionales, imágenes de alto rango dinámico, fotos y vídeos panorámicos, o formación imágenes estereoscópicas como imágenes 3D o vídeo 3D.
[0035] El dispositivo de captura de imágenes 200 incluye las cámaras 215a-n para la captura de imágenes externas. Cada una de las cámaras 215a-n puede comprender un sensor, un conjunto de lentes y una superficie reflectante o reflectante principal y secundaria para redirigir una parte de una imagen objetivo a cada sensor, como se analizó anteriormente con respecto a la figura 1. En general, se pueden usar N cámaras 215a-n, donde N > 2. Por lo tanto, la imagen objetivo puede dividirse en N partes en las que cada sensor de las N cámaras captura una parte de la imagen objetivo de acuerdo con el campo de visión de ese sensor. Se entenderá que las cámaras 215a-n pueden comprender cualquier cantidad de cámaras adecuadas para una implementación del dispositivo de formación de imágenes de óptica plegada descrito en el presente documento. El número de sensores puede aumentarse para lograr alturas z más bajas del sistema, como se analiza con más detalle a continuación con respecto a la figura 4, o para satisfacer las necesidades de otros fines, como tener campos de visión superpuestos similares a los de un cámara plenóptica, lo cual puede permitir la capacidad de ajustar el enfoque de la imagen después del postprocesamiento. Otros modos de realización pueden tener una configuración de superposición de campo de visión adecuada para cámaras de alto rango dinámico permitiendo la capacidad de capturar dos imágenes
5
10
15
20
25
30
35
40
45
50
55
60
65
simultáneas y luego fusionarlas. Las cámaras 215a-n pueden acoplarse al procesador de imágenes 220 para transmitir la imagen capturada al procesador del dispositivo 250.
[0036] La imagen de procesador 220 puede estar configurada para realizar varias operaciones de procesamiento en los datos de imagen recibidos comprendiendo N partes de la imagen objetivo con el fin de emitir una imagen unida de alta calidad, como se describirá en más detalle a continuación. El procesador de imágenes 220 puede ser una unidad de procesamiento de propósito general o un procesador especialmente diseñado para aplicaciones de formación de imágenes. Ejemplos de operaciones de procesamiento de imágenes incluyen recorte, escalado (por ejemplo, a una resolución diferente), unión de imágenes, conversión de formato de imagen, interpolación de color, procesamiento de color, filtrado de imagen (por ejemplo, filtrado de imagen espacial), corrección de defecto o alteración de lente, etc. el procesador 220 puede, en algunos modos de realización, comprender una pluralidad de procesadores. Ciertos modos de realización pueden tener un procesador dedicado a cada sensor de imágenes. El procesador de imágenes 220 puede ser uno o más procesadores de señal de imagen (ISP) dedicados o una implementación de software de un procesador.
[0037] Como se muestra, el procesador de imágenes 220 está conectado a una memoria 230 y una memoria de trabajo 205. En el modo de realización ilustrado, la memoria 230 almacena el módulo de control de captura 235, el módulo de unión de imágenes 240 y el sistema operativo 245. Estos módulos incluyen instrucciones que configuran el procesador de imágenes 220 del procesador del dispositivo 250 para realizar diversas tareas de procesamiento de imágenes y gestión de dispositivos. La memoria operativa 205 puede ser utilizada por el procesador de imágenes 220 para almacenar un conjunto funcional de instrucciones de procesador contenidas en los módulos de la memoria 230. De forma alternativa, la memoria de trabajo 205 también puede ser utilizada por el procesador de imágenes 220 para almacenar datos dinámicos creados durante el funcionamiento del dispositivo 200.
[0038] Como se mencionó anteriormente, el procesador de imágenes 220 está configurado por varios módulos almacenados en las memorias. El módulo de control de captura 235 puede incluir instrucciones que configuran el procesador de imágenes 220 para ajustar la posición de enfoque de las cámaras 215a-n. El módulo de control de captura 235 puede incluir instrucciones que controlan las funciones generales de captura de imágenes del dispositivo 200. Por ejemplo, el módulo de control de captura 235 puede incluir instrucciones que llaman a subrutinas para configurar el procesador de imágenes 220 para capturar datos de imágenes en bruto de una escena de imágenes objetivo utilizando las cámaras 215a-n. El módulo de control de captura 235 puede entonces llamar al módulo de unión de imágenes 240 para realizar una técnica de unión en las N imágenes parciales capturadas por las cámaras 215a-n y emitir una imagen objetivo unida y recortada al procesador de formación de formación de imágenes 220. El módulo de control de captura 235 también puede llamar al módulo de unión de imágenes 240 para realizar una operación de unión en datos de imágenes en bruto para generar una imagen de vista previa de una escena a capturar, y actualizar la imagen de vista previa en ciertos intervalos de tiempo o cuando la escena en los datos de la imagen sin procesar cambia.
[0039] El módulo de unión de imagen 240 puede comprender instrucciones que configuran el procesador de imágenes 220 para realizar técnicas de unión y recorte en los datos de imagen capturados. Por ejemplo, cada uno de los N sensores 215a-n puede capturar una imagen parcial que comprende una parte de la imagen objetivo de acuerdo con el campo de visión de cada sensor. Los campos de visión pueden compartir áreas de superposición, como se describe arriba y abajo. Para emitir una única imagen objetivo, el módulo de unión de imágenes 240 puede configurar el procesador de imágenes 220 para combinar las múltiples N imágenes parciales para producir una imagen objetivo de alta resolución. La generación de imágenes objetivo puede ocurrir a través de técnicas de unión de imágenes conocidas. Ejemplos de unión de imágenes se pueden encontrar en la Solicitud de Patente de los Estados Unidos número 11/623 050.
[0040] Por ejemplo, el módulo de unión de imágenes 240 puede incluir instrucciones para comparar las áreas de superposición a lo largo de los bordes de las N imágenes parciales para hacer coincidir las características con el fin de determinar la rotación y alineación de las N imágenes parciales respecto a la otra. Debido a la rotación de imágenes parciales y/o la forma del campo de visión de cada sensor, la imagen combinada puede formar una forma irregular. Por lo tanto, después de alinear y combinar las N imágenes parciales, el módulo de unión de imágenes 240 puede llamar a subrutinas que configuran el procesador de imágenes 220 para recortar la imagen combinada con una forma y relación de aspecto deseada, por ejemplo un rectángulo 4: 3 o cuadrado 1: 1. La imagen recortada puede enviarse al procesador del dispositivo 250 para su visualización en la pantalla 225 o para guardar en el almacenamiento 210.
[0041] El módulo del sistema operativo 245 configura el procesador de imágenes 220 para gestionar la memoria de trabajo 205 y los recursos de procesamiento del dispositivo 200. Por ejemplo, el módulo de sistema operativo 245 puede incluir controladores de dispositivo para gestionar recursos de hardware tales como las cámaras 215a-n. Por lo tanto, en algunos modos de realización, las instrucciones contenidas en los módulos de procesamiento de imágenes analizados anteriormente pueden no interactuar directamente con estos recursos de hardware, pero en lugar de eso interactuar a través de subrutinas o API estándar ubicadas en el componente del sistema operativo 270. Las instrucciones dentro del sistema operativo 245 pueden a continuación interactuar directamente con estos
5
10
15
20
25
30
35
40
45
50
55
60
65
componentes de hardware. El módulo de sistema operativo 245 puede configurar además el procesador de imágenes 220 para compartir información con el procesador 250 del dispositivo.
[0042] El procesador del dispositivo 250 puede estar configurado para controlar la pantalla 225 para visualizar la imagen capturada, o una vista previa de la imagen capturada, a un usuario. La pantalla 225 puede ser externa al dispositivo de formación de imágenes 200 o puede ser parte del dispositivo de formación de imágenes 200. La pantalla 225 también puede configurarse para proporcionar un buscador de vistas que muestra una imagen de vista previa para su uso antes de capturar una imagen, o puede configurarse para mostrar una imagen capturada almacenada en la memoria o recientemente capturada por el usuario. La pantalla 225 puede comprender una pantalla LCD o LED, y puede implementar tecnologías sensibles al tacto.
[0043] El Procesador del dispositivo 250 puede escribir datos en el módulo de almacenamiento 210, por ejemplo, datos que representan las imágenes capturadas. Mientras que el módulo de almacenamiento 210 se representa gráficamente como un dispositivo de disco tradicional, los expertos en la materia entenderán que el módulo de almacenamiento 210 se puede configurar como cualquier dispositivo de almacenamiento. Por ejemplo, el módulo de almacenamiento 210 puede incluir una unidad de disco, como una unidad de disquete, una unidad de disco duro, una unidad de disco óptico o una unidad de disco magneto-óptico, o una memoria de estado sólido tal como una memoria FLASH, RAM, ROM y/o EEPROM. El módulo de almacenamiento 210 también puede incluir múltiples unidades de memoria, y cualquiera de las unidades de memoria puede configurarse para estar dentro del dispositivo de captura de imágenes 200, o puede ser externo al dispositivo de captura de imágenes 200. Por ejemplo, el módulo de almacenamiento 210 puede incluir una memoria ROM que contiene instrucciones del programa del sistema almacenadas dentro del dispositivo de captura de imágenes 200. El módulo de almacenamiento 210 también puede incluir tarjetas de memoria o memorias de alta velocidad configuradas para almacenar imágenes capturadas que pueden ser extraíbles de la cámara.
[0044] Aunque la figura 2 representa un dispositivo que tiene componentes separados para incluir un procesador, un sensor de imágenes, y una memoria, un experto en la técnica reconocerá que estos componentes separados se pueden combinar en una variedad de maneras de lograr los objetivos de diseño particulares. Por ejemplo, en un modo de realización alternativo, los componentes de memoria pueden combinarse con componentes de procesador para ahorrar costes y mejorar el rendimiento. En algunos modos de realización, un dispositivo puede incluir un único procesador que puede realizar la funcionalidad que se describe con referencia al procesador 250 del dispositivo y al procesador de imágenes 220.
[0045] Además, aunque la figura 2 ilustra dos componentes de memoria, incluyendo el componente de memoria 230 que comprende varios módulos y una memoria independiente 205 que comprende una memoria de trabajo, una persona con experiencia en la técnica reconocería varios modos de realización que utilizan diferentes arquitecturas de memoria. Por ejemplo, un diseño puede utilizar una memoria ROM o una memoria RAM estática para el almacenamiento de las instrucciones del procesador que implementan los módulos contenidos en la memoria 230. Las instrucciones del procesador pueden cargarse en la RAM para facilitar la ejecución mediante el procesador de imágenes 220. Por ejemplo, la memoria de trabajo 205 puede comprender una memoria RAM, con instrucciones cargadas en la memoria de trabajo 205 antes de la ejecución mediante el procesador de imágenes 220.
III. Descripción de las cámaras de matriz de óptica plegada libres de alteraciones de paralaje e inclinación
[0046] Las figuras 3A y 3B ilustran un modo de realización de una cámara de matriz libre de alteraciones de paralaje e inclinación debido a la disposición de los diversos componentes de acuerdo con las relaciones espaciales predeterminadas definidos a continuación. Como se ilustra en las figuras 3A y 3B, dos superficies de espejo 330, 335 y dos sensores correspondientes 311A, 311B pueden configurarse basándose en una relación espacial predefinida para evitar ocasionar alteraciones de paralaje e inclinación en una imagen capturada. Un sensor de la matriz y su lente correspondiente se denomina "cámara", y la cooperación de todas las cámaras en la matriz se denomina "cámara virtual". Aunque no se ilustra, cada cámara puede tener una superficie de redireccionamiento de luz secundaria como se describió anteriormente con el fin de redirigir la luz hacia un sensor que no está colocado en el ángulo ilustrado con respecto a un eje óptico de la cámara. Por ejemplo, en algunos modos de realización, todos los sensores pueden estar colocados en un plano común. En el modo de realización ilustrado, la cámara virtual 320 incluye el sensor virtual 321 y la lente virtual 322 asociada con el sensor virtual. Como se comprenderá, la cámara virtual 320 se muestra para mostrar el sensor virtual 321 y la lente virtual 322 correspondientes a la apertura sintética (campo de visión 340) de la matriz general 300 generada al unir imágenes capturadas por los sensores físicos 311A, 311B, y la cámara virtual no está físicamente presente en una construcción real de la matriz.
[0047] Cada cámara 310A, 310B se ve en el ápice A del prisma de espejos central 350, el eje óptico 315A, 315B de cada cámara 310A, 310B que pasa por el ápice A. Los centros de lente de las lentes 312A, 312B asociadas con cada una de las cámaras 310A, 310B están a la misma distancia del ápice, y cada cámara 310A, 310B ve la mitad del campo de visión 340 de la cámara virtual 320. El ángulo del eje óptico 315A, 315B de cada cámara 310A, 310B con relación al eje vertical 325 puede ser el doble del ángulo de un plano formado por su espejo correspondiente 330, 335 con relación al eje vertical 325. En el modo de realización ilustrado, el eje vertical 325 indica el eje vertical
5
10
15
20
25
30
35
40
45
50
55
60
65
de simetría de la matriz 300 y es también el eje óptico virtual (por ejemplo, el eje óptico de la cámara virtual 320 representado por el sensor virtual 321 y la lente virtual 322).
[0048] Como se ilustra, los planos formados por las superficies de espejo 330, 335 se cruzan en un punto común, denominado el ápice y etiquetado como A en las figuras, a lo largo del eje óptico virtual 325 de la matriz. Las cámaras 310A, 310B pueden colocarse de modo que el eje óptico 315A, 315B de cada cámara se cruza con el ápice A. Además, cada cámara 310A, 310B puede colocarse de forma tal que el ángulo (etiquetado como ángulo 2a) formado entre el eje óptico de la cámara 315A, 315B y el eje óptico virtual 325 es el doble del ángulo (etiquetado como ángulo a) formado entre la superficie del espejo correspondiente 330, 335 y el eje óptico virtual 325. Sin embargo, estos ángulos no tienen que ser los mismos para todas las cámaras de la matriz. La distancia D entre el ápice A y el centro de proyección 313B (ubicado dentro de la lente 312B correspondiente a un sensor 311B) puede ser la misma o esencialmente la misma para todas las cámaras de la matriz. Todas las cámaras 310A, 310B de la matriz se fusionan virtualmente en (leer "servir como") una sola cámara virtual 320 mirando hacia arriba a lo largo del eje óptico virtual 325 de la matriz 300. De esta forma, cada combinación individual de cámara/lente/espejo representa solo una sub-abertura de la matriz total 300. La cámara virtual 320 tiene una abertura sintética hecha de la suma de todos los rayos de apertura individuales.
[0049] La figura 3C ilustra un ejemplo de las restricciones de diseño descritas anteriormente para una cámara 310B en la matriz 300. El campo de visión 340 de la cámara virtual 320 formada uniendo imágenes de todas las cámaras 310A, 310B en la matriz 300 puede basarse en la optimización de los parámetros mecánicos del sistema. Sin embargo, se puede obtener una estimación aproximada basada en la suposición de una cámara individual infinitamente pequeña (tamaño de punto) 310B. El campo de visión máximo posible (FOV) para la cámara virtual 320 se relaciona con ángulos en la figura 3C, donde:
FOV = 2P p = 90 - a
FOV = 180 -2a
[0050] Más allá del ángulo p, los rayos de luz que la cámara virtual 320 "ve" pueden ser obstruidos por la estructura física de la cámara real 310B. En algunos modos de realización de cámaras de matriz, el FOV puede ser más pequeño.
[0051] Además, la cámara de matriz es deseablemente delgada (por ejemplo, 4 mm o menos de altura) en algunos modos de realización, lo cual limita el ángulo a a menos de 45 ° y a más de un cierto valor. Otros requisitos prácticos pueden hacer a> 30 °. En diversos modos de realización, la distancia focal y el ángulo a no tienen que ser iguales para todas las cámaras.
[0052] La figura 4 ilustra un ejemplo de parámetros de diseño y un ejemplo de trazado de rayos para varios ángulos de luz incidente en un espejo 335 correspondiente a un sensor 311B y un espejo 335 de la cámara de matriz 300 de las figuras 3A-3C, lo cual puede dar como resultado un FOV = 60 ° (aproximadamente). Sin embargo, este es un ejemplo y no una limitación y los ángulos más amplios son realísticamente posibles. Suponiendo una lente ideal 312B, con resultados similares esperados para una lente real, la distancia focal de la cámara 310B es de aproximadamente 5 mm, la apertura es de 2,5 mm, la distancia desde A hasta el centro de la proyección 313B de la lente 312B es de aproximadamente 10,9 mm, A está a aproximadamente 4 mm de altura H de la base 400 (aunque la altura H puede variar basándose en el grosor o altura total de la matriz), el centro de proyección 313B está a aproximadamente 2 mm de altura desde la base 400, y a=40 °. Se puede determinar un FOV = 60 ° a partir del cálculo de la iluminación relativa, y puede estar limitado por el tamaño del espejo 335 y la distancia desde el centro de proyección de la lente 313B al espejo 335. La restricción de una altura de espejo H de aproximadamente 4 mm puede no aumentar debido a las limitaciones del factor de forma de la cámara de matriz, mientras que la distancia al espejo 335 puede reducirse, pero a costa de que la cámara física obstruya algunos de los rayos. Como se ilustra, el sensor 311B puede estar descentrado respecto al eje óptico 315B para recoger luz desde un campo de visión mayor que el proporcionado por el espejo que si el sensor 311B estuviera convencionalmente colocado centrado con el eje óptico 315B. En otros modos de realización, el sensor puede colocarse en una posición diferente y formando un ángulo diferente con respecto al eje óptico y se puede incluir una superficie de redireccionamiento de luz secundaria para redirigir la luz al sensor. Por ejemplo, la base 400 de la pirámide de espejos central puede colocarse sobre (o insertarse) en un sustrato, y el sensor 311B (y todos los demás sensores en la matriz 300) pueden colocarse sobre (o insertarse) en el sustrato.
IV. Descripción general de cámara de matriz de prisma
[0053] Las figuras 5A-5C ilustran un modo de realización de un prisma para una cámara de matriz de prismas. La figura 5A ilustra una vista lateral recortada del prisma 700 que tiene una superficie superior 710 (también denominada la primera superficie) colocada ortogonalmente al eje vertical de simetría 750 de la cámara de matriz
5
10
15
20
25
30
35
40
45
50
55
60
65
(también denominado eje óptico virtual de cámara virtual V), una superficie interior inferior 720 (también denominada segunda superficie) del prisma 700 colocada formando un ángulo a con respecto al eje vertical de simetría 750, y una superficie exterior inferior 730 (también denominada tercera superficie) colocada ortogonalmente a la superficie superior 710. La primera superficie 710 puede colocarse de modo que la luz que representa al menos una parte de la escena de imágenes objetivo entre en el prisma 700 a través de la primera superficie 710. La segunda superficie 720 puede colocarse formando un ángulo 2 con respecto al eje óptico virtual 750 con el fin de redirigir la luz recibida desde la primera superficie 710 hacia la tercera superficie 730, donde el ángulo 2 tiene un valor angular de a. La tercera superficie 730 puede estar mirando a la cámara correspondiente, C, de manera que la luz que pasa a través del prisma 700 sale de la tercera superficie 730 y entra en la cámara C.
[0054] V representa una cámara virtual, la imagen de la cámara C basada en la óptica plegada del sistema de formación de imágenes. A representa el "ápice" del prisma 700 ubicado a lo largo del eje vertical de simetría 750, que es también el eje óptico de la cámara virtual V. C representa una cámara ubicada en cualquier lugar a lo largo del eje óptico de la cámara 745 fuera del prisma 700, donde el eje óptico de la cámara 745 está colocado formando un ángulo a con relación a la segunda superficie 720 del prisma 700 y formando un ángulo 1 con relación al eje óptico virtual 750, donde el ángulo 1 tiene un valor angular de 2a. Aunque se ilustra como un punto por motivos de simplicidad y claridad, la cámara C puede incluir múltiples componentes, por ejemplo un conjunto de lentes 130, una superficie de redireccionamiento de luz secundaria 135 y un sensor 125 como se ilustra en la figura 1A. El prisma 700 puede usarse como los prismas refractivos 141, 146 ilustrados en la figura 1B en algunos ejemplos.
[0055] En algunos modos de realización, un material que tiene un índice de refracción n = 2 puede ser utilizado para el prisma 700. En otros modos de realización, se puede usar un material que tenga un índice de refracción de n > 1,5 para el prisma 700. Por ejemplo, el cristal de alto índice puede ser un material adecuado para construir el prisma 700. El prisma se puede tallar, cortar o moldear a partir del material adecuado. En algunos modos de realización, la segunda superficie 720 del prisma 700 puede recubrirse con un material reflectante, por ejemplo aluminio u otro metal, para mejorar las propiedades reflectantes de esa superficie.
[0056] El ángulo a = 30 ° cuando n = 2 en algunos ejemplos. Debido a las propiedades de reflexión interna total de un material que tiene un índice de refracción de n = 2, cualquier rayo de luz que entre al prisma a través de la superficie derecha 730 que incida en la superficie superior 710 formando un ángulo mayor que a = 30 ° se reflejará nuevamente hacia el interior el prisma desde la superficie superior 710. Los rayos procedentes de la cámara ligeramente por encima de la línea punteada que representa el eje óptico de la cámara inciden en la superficie 710 formando un ángulo por encima de la reflexión interna total y no salen (como se ilustra en el ejemplo de rayo 735). En consecuencia, la cámara no ve nada sobre la esquina superior izquierda A del prisma. No entra luz de la escena de imágenes en la apertura de la cámara desde esa posición/dirección. Aunque los rayos pueden ilustrarse y analizarse como procedentes "de" la cámara en los ejemplos proporcionados en el presente documento para ilustrar el campo de visión de la cámara, se apreciará que en la práctica los rayos pueden originarse en la escena de imágenes objetivo y pasar a través del prisma antes de entrar a la cámara C.
[0057] Un rayo en general horizontal (como se ilustra mediante el ejemplo rayo 740) incide en la segunda superficie 720 formando un ángulo de reflexión interna total, 2a = 60 °, y sale del prisma horizontalmente. Otros rayos por encima del mismo que sobresalen de C salen del prisma desde diferentes ángulos hasta la vertical. En consecuencia, esta cámara cubre un FOV de aproximadamente 90 °, y una matriz de tales cámaras cubriría un FOV de aproximadamente 180 °.
[0058] La figura 5B ilustra una vista en perspectiva del prisma 700 mostrado individualmente y una vista en perspectiva de un conjunto 780 de cuatro prismas, tal como el que podría usarse en una cámara de matriz de prismas de cuatro cámaras. La configuración ilustrada se proporciona como un ejemplo de un conjunto de prisma, y en otros modos de realización se podrían usar dos, tres, cinco o más prismas 700 en el conjunto. Como se muestra, el ápice A de cada prisma individual puede colocarse sustancialmente adyacente al ápice de cada otro prisma, y las superficies superiores 710 pueden ser coplanares. La tercera superficie 730 de cada prisma 700 forma un lado exterior del conjunto 780 de manera que, en el ejemplo ilustrado que tiene cuatro prismas, la luz que se introduce en el conjunto 780 a través de las superficies superiores 710 se redirige hacia afuera en cuatro direcciones a través de las terceras superficies 730. Aunque el conjunto 780 parece sólido, las segundas superficies en ángulo 720 de los prismas forman un rebaje en forma de pirámide vacío en el conjunto de prisma 780, una parte del cual se ilustra como espacio negativo 760 asociado con el prisma 700. El rebaje puede estar vacío o rellenado en diversos modos de realización, por ejemplo con un respaldo reflectante o sólido reflectante. Como se usa en el presente documento, un "respaldo reflectante" puede referirse a uno o más materiales incluyendo un material reflectante aplicado como respaldo o revestimiento a una superficie del prisma. Por ejemplo, adhiriéndose, pulverizando, pintando, depositando mediante deposición al vacío, o aplicando de otro modo el material al prisma, se puede proporcionar una capa delgada de metal, película u otro material reflectante sobre la segunda superficie 720 del prisma de modo que un lado reflectante del material es adyacente al lado externo (es decir, fuera del prisma) de la segunda superficie 720.
[0059] La figura 5C ilustra posibles problemas a los que se puede enfrentar una cámara de matriz de prismas que usa el prisma 700. Para ilustrar los problemas, considere un ejemplo del prisma hecho con cristal BK7. El índice de refracción n = 1,5 del cristal BK7 ocasiona a = 24 °. Un posible problema es que, en muchos casos, algunos rayos
5
10
15
20
25
30
35
40
45
50
55
60
65
(véase el ejemplo de rayo 770) quedan recortados por el propio prisma, por lo que el FOV se limita a alrededor de 60 °, como se ilustra en la figura 7C. Esto todavía puede hacer que una cámara de matriz tenga un FOV de alrededor de 120 °. Otro posible problema es que el prisma es dispersivo y, por lo tanto, una imagen capturada por la cámara C al ver una escena de imágenes "a través" del prisma 700 puede tener aberraciones cromáticas. Las aberraciones cromáticas pueden presentarse visualmente como alteraciones coloridas y/o borrosas, por ejemplo, borrosas en una dirección de coloración debido a la dispersión.
[0060] Las figuras 6A-6C ilustran otro modo de realización de un prisma para una cámara de matriz de prismas que se ocupa de los problemas de limitación de FOV y aberración cromática de la cámara de las figuras 5A-5C. El prisma 800 (también denominado elemento óptico) se refleja y refracta debido a su simetría, compensando los problemas descritos anteriormente con el prisma de las figuras 5A-5C, al tener un área de sección transversal formada como un triángulo isósceles, donde la longitud de la primera superficie 810 y la tercera superficie 830 son sustancialmente las mismas. La luz de al menos una parte de una escena de imágenes objetivo entra al elemento óptico a través de la primera superficie (en cuyo punto puede refractarse), se redirige de la segunda superficie hacia la tercera superficie y sale del elemento óptico a través de la tercera superficie para pasar hacia la cámara C.
[0061] El valor angular de a ángulo formado entre la primera superficie 810 y la segunda superficie 820 y el valor angular del ángulo formado entre la segunda superficie 820 y la tercera superficie 830 son sustancialmente los mismos, y pueden ser igual a 90 - a. El valor angular del ángulo 2 formado entre la segunda superficie 820 y el eje vertical de simetría 850 (también el eje óptico virtual) puede ser igual al valor angular del ángulo a formado entre la segunda superficie 820 y el eje óptico de la cámara 845. Por consiguiente, un plano formado por la segunda superficie 820 biseca el ángulo 2 formado entre el eje óptico virtual 850 y el eje óptico de la cámara 845, y el ángulo 1 tiene un valor angular de dos veces el valor angular del ángulo 2. El ángulo 3, formado entre la primera superficie 810 y la tercera superficie 830 tiene un valor angular de dos veces el valor angular del ángulo 1. El eje vertical de simetría 850 y el eje óptico de la cámara 845 pueden cruzarse en el ápice A del prisma 800. El prisma 800 puede usarse como los prismas refractivos 141, 146 ilustrados en la figura 1B en algunos ejemplos.
[0062] La figura 6A ilustra una vista lateral recortada del prisma 800 que tiene una primera superficie (o superior) 810 colocada ortogonalmente al eje vertical de simetría 850 de la cámara de matriz, una segunda superficie (o interior inferior) 820 del prisma 800 colocada formando un ángulo a con relación al eje vertical de simetría, y una tercera superficie (o exterior inferior) 830 colocada formando un ángulo 2a con respecto a la primera superficie 810. En algunos modos de realización, la segunda superficie 820 puede estar provista de un soporte reflectante, o puede colocarse un material reflectante adyacente a la segunda superficie 820. La tercera superficie 830 puede colocarse mirando hacia la cámara correspondiente para pasar la parte de luz recibida por el prisma 800 a la cámara. La cámara (que no se muestra en la figura 6A) puede ubicarse en cualquier parte del eje óptico de la cámara 845 fuera del prisma 800.
[0063] De acuerdo con los principios de diseño de paralaje y libre de inclinación descritos anteriormente, el eje óptico de la cámara 845 está formando un ángulo de 2a con respecto al eje vertical de simetría y pasa por el ápice A del prisma. El centro de proyección de la cámara virtual se puede ubicar a lo largo del eje vertical de simetría 850. Aunque se ilustra como una vista lateral recortada, se apreciará que los planos formados por cada una de la primera superficie, segunda superficie y tercera superficie se adhieren a la relación geométrica para reducir o eliminar alteraciones de paralaje e inclinación en imágenes capturadas en una cámara de matriz de prismas implementando los prismas.
[0064] Tales prismas no tienen ninguna dispersión, y por lo tanto no ocasionan la aberración cromática. La figura 6B ilustra un ejemplo de rayos de luz 835 que se desplazan a través del prisma 800. La cámara C y la cámara virtual V se ilustran en la figura 6B.
[0065] El prisma 800 es equivalente a una losa de cristal con superficies superior e inferior paralelas, como se ve desde la perspectiva de la cámara V virtual, donde V es la imagen de espejo de la cámara real C debido a la óptica plegada del prisma 800. Debido a que no hay problemas cromáticos con la luz que viaja a través de una placa de cristal con superficies paralelas, el prisma 800 tampoco presenta aberración cromática en las imágenes capturadas. El rayo horizontal 835 procedente de C es equivalente al rayo 840 que sale de la cámara virtual V como se ilustra. El rayo, como se muestra por el segmento de rayos 841, sale del prisma paralelo en la dirección en la que entró desde V (representado por el segmento de rayos 840).
[0066] Además, ningún rayo se recorta: siempre que el rayo entra en el prisma, también sale. Como resultado, se conserva el FOV de la cámara. Una serie de cámaras, cada una con FOV = 60 °, cubrirán 120 °. Es posible un FOV para la cámara de matriz de hasta 180 ° si V toca la placa y a es el ángulo de reflexión interna total.
[0067] La figura 6C ilustra una vista en perspectiva del prisma 800 que se muestra individualmente y una vista en perspectiva de un conjunto 880 de cuatro prismas 800, tal como podría usarse en una cámara de matriz de prismas de cuatro cámaras. La configuración ilustrada se proporciona como un ejemplo de un conjunto de prisma, y en otros modos de realización se podrían usar dos, tres, cinco o más prismas en el conjunto. Como se muestra, el ápice A de cada prisma individual 800 puede colocarse sustancialmente adyacente al ápice de cada prisma diferente, y las
5
10
15
20
25
30
35
40
45
50
55
60
65
superficies superiores (primeras) pueden ser coplanares. La tercera superficie 830 de cada prisma 800 forma un lado exterior del conjunto 880 de manera que, en el ejemplo ilustrado que tiene cuatro prismas, la luz que se introduce en el conjunto 880 a través de las superficies superiores 810 se redirige hacia afuera en cuatro direcciones a través de las terceras superficies 830. Aunque el conjunto 880 parece sólido, las superficies interiores inferiores inclinadas (segundas) 820 de los prismas forman un rebaje en forma de pirámide vacío en el conjunto de prisma 880, una parte del cual se muestra mediante el espacio negativo 860 asociado con el prisma 800. El rebaje puede estar vacío o rellenado en diversos modos de realización, por ejemplo con un respaldo reflectante o sólido reflectante.
[0068] Cada prisma en el conjunto 880 se puede fabricar para tener facetas colocadas de acuerdo con la relación geométrica definida anteriormente para producir paralaje y e imágenes libres de inclinación. El ángulo de las superficies exteriores inferiores (terceras) puede hacer que el conjunto 880 parezca tener lados inclinados.
[0069] Las figuras 7A-7C ilustran otro modo de realización de un prisma 900 para una cámara de matriz de prismas que tiene una lente planocóncava 940, también denominada lente negativa. La incorporación de la lente 940 en el diseño del prisma isósceles descrito anteriormente con respecto a las figuras 6A-6C puede aumentar aún más el campo de visión de la cámara.
[0070] La figura 7A ilustra una vista lateral recortada del prisma 900 que tiene una primera superficie 910 colocada ortogonalmente al eje vertical de simetría 950 de la cámara de matriz, una segunda superficie 920 del prisma 900 colocada formando un ángulo a con respecto al eje vertical de simetría 950, un eje óptico de la cámara 945 colocado formando un ángulo 2a con respecto al eje vertical de simetría 950, y una tercera superficie 930 situada formando un ángulo 2a con respecto a la primera superficie 910. La tercera superficie 930 puede estar mirando a la cámara correspondiente. La cámara (que no se muestra en la figura 7A) puede ubicarse en cualquier parte del eje óptico de la cámara 945 fuera del prisma 900. De acuerdo con los principios de diseño libre de paralaje y de inclinación descritos anteriormente, el eje óptico de la cámara 945 está inclinado formando un ángulo 2a con respecto al eje vertical de simetría y pasa a través del ápice A del prisma. El centro de proyección de la cámara virtual se puede ubicar a lo largo del eje vertical de simetría 950 que también pasa a través del ápice A. El prisma 900 se puede usar como los prismas refractivos 141, 146 ilustrados en la figura 1B en algunos ejemplos.
[0071] Una lente negativa 940 se ilustra como formada en la tercera superficie 930. La lente negativa 940 puede tallarse o cortarse desde el prisma 900 o puede moldearse o formarse de otro modo con el prisma 900 en diversos modos de realización. En otros modos de realización, la tercera superficie puede ser plana y la lente negativa puede estar acoplada a la superficie, por ejemplo mediante adhesivo. Una lente tallada en el prisma 900 puede ser más adecuada para su uso con una cámara de matriz de factor de forma delgado.
[0072] Esta lente 940 debe ser considerado como parte del diseño óptico total y optimizarse junto con el conjunto de la lente que se utiliza para enfocar la cámara. Tal lente 940 aumenta el FOV al extender los rayos que se desplazan hacia la cámara. En un ejemplo, la superficie de la lente puede ser parte de una esfera centrada en el centro de proyección. Todos los rayos entran perpendiculares y no se refractan. Incluso cuando los rayos cubren un pequeño ángulo dentro del cristal, cuando salen a través de la superficie plana de la lente 940, el ángulo aumenta. Cuando el ángulo del rayo está cerca de la reflexión interna total, el ángulo de salida aumenta significativamente.
[0073] La figura 7B ilustra una vista en perspectiva del prisma 900 que se muestra individualmente y una vista en perspectiva de un conjunto 980 de cuatro prismas 900, tal como podría usarse en una cámara de matriz de prismas de cuatro cámaras. La configuración ilustrada se proporciona como un ejemplo de un conjunto de prisma, y en otros modos de realización se podrían usar dos, tres, cinco o más prismas en el conjunto. Como se muestra, el ápice A de cada prisma individual puede colocarse sustancialmente adyacente al ápice de cada prisma diferente, y las superficies superiores (primeras) 910 pueden ser coplanares. La tercera superficie 930 de cada prisma 900 forma un lado exterior del conjunto 980 de manera que, en el ejemplo ilustrado que tiene cuatro prismas, la luz que se introduce en el conjunto 980 a través de las superficies superiores 910 se redirige hacia afuera en cuatro direcciones a través de las terceras superficies 930. Aunque el conjunto 980 parece sólido, las superficies interiores inferiores inclinadas (segundas) 920 de los prismas forman un rebaje en forma de pirámide vacía en el conjunto de prisma 980, una parte del cual se ilustra como espacio negativo 960 asociado con el prisma 900. El rebaje puede estar vacío o rellenado en varios modos de realización, por ejemplo con un respaldo reflectante en la segunda superficie 920 o con un sólido reflectante. El ángulo de las terceras superficies 930 puede hacer que el conjunto 980 parezca tener lados inclinados. Las terceras superficies 930 muestran las lentes negativas 940 en los lados.
[0074] La figura 7C ilustra una representación del concepto de la figura 7A desde el punto de vista de la cámara virtual V. La figura 7C muestra un rayo 935 que entra en el prisma 900 a través de una lente virtual negativa 970 (correspondiente a la imagen de espejo de la lente negativa 940) desde la cámara virtual V formando un ángulo 90-a sin flexión, y alcanzando la primera superficie 910 formando un ángulo de reflexión interna total. Este rayo 935 sale del prisma 900 a través de la primera superficie 910 aproximadamente horizontalmente. Al mismo tiempo, un rayo vertical (no ilustrado, el rayo vertical se desplazaría a lo largo del eje vertical de simetría 950) desde la cámara virtual sale verticalmente. En consecuencia, si una cámara tiene un FOV de 90-a grados completo, donde a es el ángulo de reflexión interna total, cubrirá un campo completo de 90 ° fuera del cristal. Además, dos o más de tales cámaras
5
10
15
20
25
30
35
40
45
50
55
60
65
cubrirían un FOV de 180 °. Cuatro de tales cámaras cubrirían un FOV de 180 ° con una cobertura ortogonal más amplia que dos de tales cámaras.
[0075] Como se ilustra, con el fin de reducir las alteraciones de paralaje entre una imagen captada por la cámara C y una cámara correspondiente a un prisma adicional (por ejemplo, otro prisma dispuesto junto con prisma 900 en el conjunto 980), un plano formado por la segunda superficie 920 biseca el ángulo 1 formado entre el eje óptico virtual 950 y el eje óptico de la cámara 945, y el ángulo 1 tiene un valor angular de dos veces el valor angular del ángulo 2. El ángulo 3, formado entre la primera superficie 910 y la tercera superficie 930 tiene un valor angular (2a) del doble del valor angular del ángulo 1. Cada prisma en el conjunto y su cámara correspondiente pueden formarse y/o disponerse de acuerdo con estos principios de diseño de reducción de paralaje. Aunque se ilustra como una fuente puntual por simplicidad en las figuras 5A-7C, se apreciará que la cámara C puede incluir una variedad de componentes, por ejemplo, uno o más de un sensor de imágenes, un espejo o elemento refractivo para proporcionar un redireccionamiento secundario a la luz que sale de la tercera superficie del prisma antes de que incida en el sensor, y un conjunto de lentes colocado entre el sensor de imágenes y el espejo o elemento refractivo.
[0076] Los modos de realización descritos anteriormente de la cámara de matriz de prismas pueden construirse en algunos ejemplos basados en los principios de diseño libre de paralaje ubicando la superficie interior inferior del prisma en el punto central de, y ortogonal a, una línea formada entre el centro de proyección de la cámara correspondiente y el centro de proyección virtual de la cámara virtual de forma tal que un plano formado por la superficie interior inferior biseque un ángulo formado entre el eje óptico virtual y el eje óptico de la cámara. En tales ejemplos, la cámara de matriz puede estar o no libre de alteraciones de inclinación. En otros ejemplos, los modos de realización descritos anteriormente de la cámara de matriz de prismas pueden basarse en el principio de diseño libre de paralaje e inclinación de las figuras 3A a 4. Este diseño es más restrictivo que el de las figuras 5A a 7C, pero elimina tanto la inclinación como el paralaje.
V. Descripción general del proceso de captura de imágenes de ejemplo
[0077] La figura 8 ilustra un modo de realización de un proceso de captura de imágenes de óptica plegada 1000. El proceso 1000 comienza en el bloque 1005, en el que se proporcionan una pluralidad de conjuntos de sensores de formación de imágenes. Este paso incluye cualquiera de las configuraciones de matrices de sensores analizadas anteriormente con respecto a las figuras anteriores. Los conjuntos de sensores pueden incluir, como se analizó anteriormente con respecto a las figuras 1A y 1B, un sensor, sistema de lentes y una superficie reflectante colocada para redirigir la luz desde el sistema de lentes al sensor. Los conjuntos de sensores pueden incluir de forma alternativa un sensor, un sistema de lente y cualquiera de los ejemplos de prisma refractivo como se analizó anteriormente. El proceso 1000 a continuación pasa al bloque 1010, en el que al menos una superficie refractiva se monta próxima a la pluralidad de sensores de imágenes. Por ejemplo, este paso podría comprender montar un conjunto de prisma central en el centro de una matriz de sensores, en el que el conjunto de prisma central comprende al menos una superficie asociada con cada sensor en la matriz. Se pueden proporcionar espejos o prismas secundarios en algunos modos de realización, por ejemplo, un prisma o espejo secundario colocado entre cada sensor y el conjunto de lentes asociado para reducir la altura total del conjunto.
[0078] El proceso 1000 a continuación transita al bloque 1015, en el que la luz que comprende una imagen de una escena objetivo se refracta a través de la al menos una superficie refractiva hacia los sensores de imágenes. Por ejemplo, una parte de la luz puede refractarse a través de cada uno de una pluralidad de prismas en el conjunto de prisma hacia uno correspondiente de cada uno de la pluralidad de sensores. Este paso puede comprender además pasar la luz a través de un conjunto de lentes asociado con cada sensor, y también puede incluir reflejar la luz en una segunda superficie sobre un sensor, donde el conjunto de lentes se coloca entre la superficie refractiva y la superficie reflectante. El bloque 1015 puede comprender además enfocar la luz usando el conjunto de lentes y/o a través del movimiento de cualquiera de las superficies reflectantes o refractivas.
[0079] El proceso 1000 puede entonces pasar al bloque 1020, en el que los sensores capturan una pluralidad de imágenes de la escena de imágenes objetivo. Por ejemplo, cada sensor puede capturar una imagen de una parte de la escena correspondiente al campo de visión de ese sensor. Juntos, los campos de visión de la pluralidad de sensores cubren al menos la imagen objetivo en el espacio de objeto. Debido a las propiedades de los prismas refractivos utilizados para redirigir la luz de la escena de imágenes hacia los sensores, el campo de visión total puede aumentarse en relación con los sistemas que no implementan dichos prismas refractivos mientras mantienen un bajo perfil.
[0080] El proceso 1000 a continuación puede pasar al bloque 1025 en el que se lleva a cabo un procedimiento de unión de imágenes para generar una sola imagen a partir de la pluralidad de imágenes. En algunos modos de realización, el módulo de unión de imágenes 240 de la figura 2 puede realizar este paso. Esto puede incluir técnicas de unión de imágenes conocidas. Además, cualquier área de superposición en los campos de visión puede generar superposición en la pluralidad de imágenes, que pueden usarse para alinear las imágenes en el proceso de unión. Por ejemplo, el bloque 1025 puede incluir además la identificación de características comunes en el área de superposición de imágenes adyacentes y el uso de las características comunes para alinear las imágenes. En algunos modos de realización, debido a la relación geométrica entre las superficies de los prismas refractivos, puede
5
10
15
20
25
30
35
40
45
50
55
60
65
que no haya en absoluto o sustancialmente alteraciones de paralaje o inclinación entre las diversas imágenes parciales antes de la unión.
[0081] A continuación, el proceso 1000 transiciona para bloquear 1030 en el que la imagen unida se recorta a una relación de aspecto especificada, por ejemplo 4:3 o 1:1. Finalmente, el proceso finaliza después de almacenar la imagen recortada en el bloque 1035. Por ejemplo, la imagen puede almacenarse en el almacenamiento 210 de la figura 2, o puede almacenarse en la memoria de trabajo 205 de la figura 2 para visualizarse como una imagen de vista previa de la escena objetivo.
VI. Implementación de sistemas y terminología
[0082] Las implementaciones divulgadas en el presente documento proporcionan sistemas, procedimientos y aparatos para múltiples cámaras de matriz de sensores libres de alteraciones de paralaje e inclinación. Un experto en la materia reconocerá que estos modos de realización pueden implementarse en hardware, software, firmware o cualquier combinación de los mismos.
[0083] En algunos modos de realización, los circuitos, los procesos y sistemas analizados anteriormente pueden utilizarse en un dispositivo de comunicación inalámbrica. El dispositivo de comunicación inalámbrica puede ser un tipo de dispositivo electrónico utilizado para comunicarse de forma inalámbrica con otros dispositivos electrónicos. Los ejemplos de dispositivos de comunicación inalámbrica incluyen teléfonos celulares, teléfonos inteligentes, asistentes digitales personales (PDA), lectores electrónicos, sistemas de juegos, reproductores de música, netbooks, módems inalámbricos, ordenadores portátiles, dispositivos tipo tablet, etc.
[0084] El dispositivo de comunicación inalámbrica puede incluir uno o más sensores de imágenes, dos o más procesadores de señal de imagen, una memoria que incluye instrucciones o módulos para llevar a cabo los procesos analizados anteriormente. El dispositivo también puede tener datos, instrucciones de carga del procesador y/o datos de la memoria, una o más interfaces de comunicación, uno o más dispositivos de entrada, uno o más dispositivos de salida tales como un dispositivo de visualización y una fuente/interfaz de alimentación. El dispositivo de comunicación inalámbrica puede incluir adicionalmente un transmisor y un receptor. El transmisor y el receptor se pueden denominar conjuntamente un transceptor. El transceptor puede estar acoplado a una o más antenas para transmitir y/o recibir señales inalámbricas.
[0085] El dispositivo de comunicación inalámbrica puede conectarse de forma inalámbrica a otro dispositivo electrónico (por ejemplo, estación base). Un dispositivo de comunicación inalámbrica puede denominarse de forma alternativa un dispositivo móvil, una estación móvil, una estación de abonado, un equipo de usuario (UE), una estación remota, un terminal de acceso, un terminal móvil, un terminal, un terminal de usuario, una unidad de abonado, etc. Entre los ejemplos de dispositivos de comunicación inalámbrica se incluyen ordenadores portátiles o de escritorio, teléfonos celulares, teléfonos inteligentes, módems inalámbricos, lectores electrónicos, tablets, sistemas de juegos, etc. Los dispositivos de comunicación inalámbrica pueden funcionar de acuerdo con uno o más estándares de la industria tales como el 3rd Generation Partnership Project [Proyecto de Asociación de Tercera Generación] (3GPP). Por lo tanto, el término general "dispositivo de comunicación inalámbrica" puede incluir dispositivos de comunicación inalámbrica descritos con nomenclaturas variables de acuerdo con los estándares de la industria (por ejemplo, terminal de acceso, equipo de usuario (UE), terminal remoto, etc.).
[0086] Las funciones descritas en el presente documento pueden ser almacenados como una o más instrucciones en un medio legible por procesador o legible por ordenador. El término "medio legible por ordenador " se refiere a cualquier medio disponible al que se puede acceder mediante un ordenador o procesador. A modo de ejemplo, y no de limitación, dicho medio puede comprender RAM, ROM, EEPROM, memoria flash, CD-ROM u otro almacenamiento en disco óptico, almacenamiento en disco magnético u otros dispositivos de almacenamiento magnético, o cualquier otro medio que pueda usarse para almacenar el código de programa deseado en forma de instrucciones o estructuras de datos y al que se puede acceder desde un ordenador. Los discos, tal y como se usan en el presente documento, incluyen discos compactos (CD), discos de láser, discos ópticos, discos versátiles digitales (DVD), discos flexibles y discos Blu-ray®, donde los discos normalmente reproducen datos de manera magnética así como de manera óptica con láser. Cabe señalar que un medio legible por ordenador puede ser tangible y no transitorio. El término "producto de programa informático" se refiere a un dispositivo o procesador informático en combinación con código o instrucciones (por ejemplo, un "programa") que puede ser ejecutado, procesado o computado por el dispositivo o procesador informático. Como se usa en el presente documento, el término "código" puede referirse a software, instrucciones, código o datos que son/son ejecutables por un dispositivo o procesador informático.
[0087] Los procedimientos divulgados en el presente documento comprenden uno o más pasos o acciones para realizar el procedimiento descrito. Los pasos y/o acciones del procedimiento pueden intercambiarse entre sí sin apartarse del alcance de las reivindicaciones. En otras palabras, a menos que se requiera un orden específico de pasos o acciones para el funcionamiento apropiado del procedimiento que se describe, el orden y/o uso de pasos y/o acciones específicos puede modificarse sin apartarse del alcance de las reivindicaciones.
5
10
15
20
25
30
35
[0088] Hay que señalar que los términos "par", "acoplamiento", "acoplado" u otras variaciones de la palabra par, como se usa en el presente documento puede indicar o bien una conexión indirecta o una conexión directa. Por ejemplo, si un primer componente está "acoplado" a un segundo componente, el primer componente puede estar indirectamente conectado al segundo componente o conectado directamente al segundo componente. Como se usa en el presente documento, el término "pluralidad" denota dos o más. Por ejemplo, una pluralidad de componentes indica dos o más componentes.
[0089] El término "determinar" abarca una amplia variedad de acciones y, por lo tanto, "determinar" puede incluir cálculo, computación, procesamiento, obtención, investigación, consulta (por ejemplo, consulta en una tabla, una base de datos u otra estructura de datos), determinación y similares. "Determinar" también puede incluir recibir (por ejemplo, recibir información), acceder (por ejemplo, acceder a datos en una memoria) y similares. Además, "determinar" puede incluir resolver, seleccionar, elegir, establecer y similares.
[0090] La frase "basado en" no significa "basado solo en" salvo que se especifique expresamente lo contrario. En otras palabras, la frase "basado en" describe tanto "basado únicamente en" como "basado al menos en".
[0091] En la descripción anterior, se dan detalles específicos para proporcionar una comprensión completa de los ejemplos. Sin embargo, resultará evidente para un experto en la técnica que los ejemplos pueden practicarse sin estos detalles específicos. Por ejemplo, los componentes/dispositivos eléctricos pueden mostrarse en diagramas de bloques para no ocultar los ejemplos con detalles innecesarios. En otros casos, dichos componentes, otras estructuras y técnicas se pueden mostrar en detalle para explicar mejor los ejemplos.
[0092] Las cabeceras se incluyen en el presente documento como referencia y para ayudar a localizar varias secciones. Estas cabeceras no pretenden limitar el alcance de los conceptos descritos con respecto a los mismos. Tales conceptos pueden tener aplicabilidad a lo largo de toda la memoria descriptiva.
[0093] También se observa que los ejemplos se pueden describir como un proceso, que se representa como un gráfico de flujo, un diagrama de flujo, un diagrama de estado finito, un diagrama de estructura o un diagrama de bloques. Aunque un gráfico de flujo pueda describir las operaciones como un proceso secuencial, muchas de las operaciones pueden realizarse en paralelo o de forma simultánea, y el proceso puede repetirse. Además, el orden de las operaciones puede reorganizarse. Un proceso se termina cuando se completan sus operaciones. Un proceso puede corresponder a un procedimiento, a una función, a un procedimiento, a una subrutina, a un subprograma, etc. Cuando un proceso corresponde a una función de software, su terminación corresponde a un retorno de la función a la función de llamada o a la función principal.

Claims (15)

  1. 5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    55
    60
    REIVINDICACIONES
    1. Una cámara de matriz de prismas para capturar una escena de imágenes objetivo, con la cámara de matriz de prismas que comprende:
    una pluralidad de cámaras (C) situadas alrededor de un eje vertical de simetría de la cámara de matriz de prismas, comprendiendo cada cámara (C) de la pluralidad de cámaras (C):
    un sensor de imágenes, y
    un eje óptico (745; 845; 945) colocado en un primer ángulo con respecto al eje vertical de simetría
    (750; 850; 950), correspondiendo el primer ángulo a un valor angular; y
    una pluralidad de prismas (700; 800; 900), con cada prisma (700; 800; 900) configurado para dirigir una parte de luz que representa la escena de imágenes objetivo hacia una cámara correspondiente (C) de la pluralidad de cámaras (C) al menos parcialmente por refracción, comprendiendo cada prisma (700; 800; 900):
    una primera superficie (710; 810; 910) colocada ortogonalmente al eje vertical de simetría (750; 850; 950) de la cámara de matriz de prismas, con la primera superficie (710; 810; 910) colocada de modo que la parte de luz que representa la escena de imágenes objetivo entra en el prisma (700; 800; 900) a través de la primera superficie (710; 810; 910),
    una segunda superficie (720; 820; 920) colocada de manera que un plano formado por la segunda superficie (720; 820; 920) biseca el primer ángulo entre el eje óptico (745; 845; 945) de la cámara correspondiente (C) y el eje vertical de simetría (750; 850; 950), y
    una tercera superficie (730; 830; 930), con la segunda superficie (720; 820; 920) configurada para redirigir la parte de luz recibida desde la primera superficie (710; 810; 910) hacia la tercera superficie (730; 830; 930;), con la tercera superficie (730; 830; 930) colocada de manera que la parte de luz que representa la escena de imágenes objetivo sale del prisma (700; 800; 900) a través de la tercera superficie (730; 830; 930) y viaja hacia la correspondiente cámara (C),
    caracterizado por que:
    la cámara de matriz de prismas está dispuesta de modo que el eje vertical de simetría (750; 850; 950) de la cámara de matriz de prismas pasa a través de un ápice (A) en un punto de intersección entre la primera superficie (710; 810; 910) y la segunda superficie (720; 820; 920) de cada prisma (700; 800; 900); y
    el eje óptico (745; 845; 945) de cada cámara (C) de la pluralidad de cámaras (C) pasa a través del ápice (A).
  2. 2. La cámara de matriz de prismas de la reivindicación 1, en la que la tercera superficie (730; 830; 930) está situada en un segundo ángulo con respecto a la primera superficie (710; 810; 910), correspondiendo el segundo ángulo al valor angular.
  3. 3. La cámara de matriz de prismas de la reivindicación 1, en la que una longitud de la primera superficie (710; 810; 910) y una longitud de la tercera superficie (730; 830; 930) son sustancialmente iguales.
  4. 4. La cámara de matriz de prismas de la reivindicación 1, que comprende además una lente negativa moldeada en o fijada a la tercera superficie (730; 830; 930).
  5. 5. La cámara de matriz de prismas de la reivindicación 1, que comprende además un respaldo reflectante proporcionado en la segunda superficie (720; 820; 920).
  6. 6. La cámara de matriz de prismas de la reivindicación 1, en la que una primera superficie de plegado ligera comprende la segunda superficie (720; 820; 920) del prisma, comprendiendo cada cámara (C) de la pluralidad de cámaras (C) además una superficie de plegado ligera secundaria entre la primera superficie de plegado ligera y el sensor de imágenes.
  7. 7. La cámara de matriz de prismas de la reivindicación 6, en la que la superficie de plegado ligera secundaria comprende una superficie reflectante o un prisma adicional.
  8. 8. La cámara de matriz de prismas de la reivindicación 1, en la que cada cámara (C) de la pluralidad de cámaras (C) comprende además un conjunto de lentes colocado entre la tercera superficie (730; 830; 930) del prisma y el sensor de imágenes.
    5
    10
    15
    20
    25
    30
    35
    40
    45
  9. 9. La cámara de matriz de prismas de la reivindicación 1, que comprende además un procesador (220) configurado para combinar una imagen generada a partir de la parte de luz que representa la escena de imágenes objetivo de cada una de la pluralidad de cámaras (C) en una imagen final de la escena objetivo.
  10. 10. Un procedimiento de fabricación de una cámara de matriz de prismas, con el procedimiento que comprende:
    determinar un eje vertical de simetría (750; 850; 950) de la cámara de matriz de prismas; y para cada cámara (C) de una pluralidad de cámaras (C) de la cámara de matriz de prismas:
    colocar la cámara (C) de modo que un eje óptico (745; 845; 945) de la cámara (C) se coloque formando un primer ángulo con respecto al eje vertical de simetría (750; 850; 950), correspondiendo el primer ángulo al un valor angular, y colocar un elemento óptico (700; 800; 900) de modo que:
    una primera superficie (710, 810; 910) del elemento óptico (700; 800; 900) esté colocada ortogonalmente al eje vertical de simetría (750; 850; 950), y
    una segunda superficie (720; 820; 920) del elemento óptico (700; 800; 900) esté colocada de tal manera que un plano formado por la segunda superficie (720; 820; 920) biseque el primer ángulo, caracterizado por que el eje vertical de simetría (750; 850; 950) de la cámara de matriz de prismas pasa a través de un ápice (A) en un punto de intersección entre la primera superficie (710; 810; 910) y la segunda superficie (720; 820; 920) del elemento óptico (700; 800; 900); y colocar la cámara (C) de modo que el eje óptico (745; 845; 945) de la cámara (C) pase a través del ápice (A) del elemento óptico (700; 800; 900).
  11. 11. El procedimiento de fabricación de la cámara de matriz de prismas de la reivindicación 10, que comprende además colocar el elemento óptico (700; 800; 900) de manera que se coloca una tercera superficie (730; 830; 930) del elemento óptico (700; 800; 900). formando un segundo ángulo con relación a la primera superficie (710; 810; 910) del elemento óptico (700; 800; 900), correspondiendo el segundo ángulo al valor angular.
  12. 12. El procedimiento de fabricación de la cámara de matriz de prismas de la reivindicación 11, en el que el elemento óptico (700; 800; 900) tiene una primera longitud para la primera superficie (710; 810; 910) y una segunda longitud para la tercera superficie (730; 830; 930), y en el que la primera longitud es sustancialmente igual a la segunda longitud.
  13. 13. El procedimiento de fabricación de la cámara de matriz de prismas de la reivindicación 11, que comprende además colocar cada una de la pluralidad de cámaras (C) para recibir luz que representa una parte de una escena de imágenes objetivo de la tercera superficie (730; 830; 930) de un elemento óptico correspondiente (700; 800; 900).
  14. 14. El procedimiento de fabricación de la cámara de matriz de prismas de la reivindicación 11, que comprende además proporcionar una lente negativa dentro o fijada a la tercera superficie (730; 830; 930) del elemento óptico (700; 800; 900).
  15. 15. El procedimiento de fabricación de la cámara de matriz de prismas de la reivindicación 10, que comprende además proporcionar un respaldo reflectante en la segunda superficie (720; 820; 920) del elemento óptico (700; 800; 900).
ES15741383.2T 2014-06-20 2015-06-18 Cámara de matriz de óptica plegada con prismas refractivos Active ES2685719T3 (es)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201462015317P 2014-06-20 2014-06-20
US201462015317P 2014-06-20
US201514742285 2015-06-17
US14/742,285 US9541740B2 (en) 2014-06-20 2015-06-17 Folded optic array camera using refractive prisms
PCT/US2015/036415 WO2015195905A1 (en) 2014-06-20 2015-06-18 Folded optic array camera using refractive prisms

Publications (1)

Publication Number Publication Date
ES2685719T3 true ES2685719T3 (es) 2018-10-10

Family

ID=54869480

Family Applications (1)

Application Number Title Priority Date Filing Date
ES15741383.2T Active ES2685719T3 (es) 2014-06-20 2015-06-18 Cámara de matriz de óptica plegada con prismas refractivos

Country Status (10)

Country Link
US (2) US9541740B2 (es)
EP (1) EP3158382B1 (es)
JP (1) JP6423019B2 (es)
KR (1) KR102008054B1 (es)
CN (2) CN106662796B (es)
BR (1) BR112016029782A2 (es)
CA (1) CA2951277A1 (es)
ES (1) ES2685719T3 (es)
HU (1) HUE039483T2 (es)
WO (1) WO2015195905A1 (es)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9485495B2 (en) 2010-08-09 2016-11-01 Qualcomm Incorporated Autofocus for stereo images
US9438889B2 (en) 2011-09-21 2016-09-06 Qualcomm Incorporated System and method for improving methods of manufacturing stereoscopic image sensors
US9398264B2 (en) 2012-10-19 2016-07-19 Qualcomm Incorporated Multi-camera system using folded optics
US10178373B2 (en) 2013-08-16 2019-01-08 Qualcomm Incorporated Stereo yaw correction using autofocus feedback
US9374516B2 (en) 2014-04-04 2016-06-21 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US9383550B2 (en) 2014-04-04 2016-07-05 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US10013764B2 (en) 2014-06-19 2018-07-03 Qualcomm Incorporated Local adaptive histogram equalization
US9819863B2 (en) 2014-06-20 2017-11-14 Qualcomm Incorporated Wide field of view array camera for hemispheric and spherical imaging
US9386222B2 (en) 2014-06-20 2016-07-05 Qualcomm Incorporated Multi-camera system using folded optics free from parallax artifacts
US9294672B2 (en) * 2014-06-20 2016-03-22 Qualcomm Incorporated Multi-camera system using folded optics free from parallax and tilt artifacts
US9541740B2 (en) 2014-06-20 2017-01-10 Qualcomm Incorporated Folded optic array camera using refractive prisms
US9549107B2 (en) 2014-06-20 2017-01-17 Qualcomm Incorporated Autofocus for folded optic array cameras
US9832381B2 (en) 2014-10-31 2017-11-28 Qualcomm Incorporated Optical image stabilization for thin cameras
US9898091B2 (en) 2015-06-03 2018-02-20 Oculus Vr, Llc Virtual reality system with head-mounted display, camera and hand-held controllers
EP3101890B1 (en) * 2015-06-03 2017-11-22 Axis AB A mechanism and a method for optical image stabilization
US9776084B2 (en) * 2015-06-15 2017-10-03 Oculus Vr, Llc Virtual reality system with camera shock-mounted to head-mounted display
TWI569640B (zh) * 2015-06-23 2017-02-01 台灣東電化股份有限公司 攝影模組
US20170195561A1 (en) * 2016-01-05 2017-07-06 360fly, Inc. Automated processing of panoramic video content using machine learning techniques
US10455214B2 (en) * 2016-03-03 2019-10-22 Disney Enterprises, Inc. Converting a monocular camera into a binocular stereo camera
US9986223B2 (en) * 2016-06-08 2018-05-29 Qualcomm Incorporated Folded optic passive depth sensing system
US9967547B2 (en) 2016-06-08 2018-05-08 Qualcomm Incorporated Wafer level optics for folded optic passive depth sensing system
US10666923B2 (en) * 2017-02-24 2020-05-26 Immervision, Inc. Wide-angle stereoscopic vision with cameras having different parameters
CN110582724B (zh) * 2017-03-15 2022-01-04 核心光电有限公司 具有全景扫描范围的照相装置
CN107066994A (zh) * 2017-05-15 2017-08-18 中国林业科学研究院 评估疏林草原树木死亡率的方法与无人机
US10539764B2 (en) * 2017-07-05 2020-01-21 Panavision International, L.P. Anamorphic photography and squeeze ratios for digital imagers
US10373362B2 (en) * 2017-07-06 2019-08-06 Humaneyes Technologies Ltd. Systems and methods for adaptive stitching of digital images
US11054621B2 (en) 2017-07-25 2021-07-06 Lg Electronics Inc. Camera, and image display apparatus including the same
KR102135091B1 (ko) * 2017-07-25 2020-07-17 엘지전자 주식회사 카메라, 및 이를 구비하는 영상표시장치
WO2019075235A2 (en) * 2017-10-11 2019-04-18 The Schepens Eye Research Institute, Inc. EXTENSION OF FIELD OF VIEW
US10698204B1 (en) * 2017-10-16 2020-06-30 Facebook Technologies, Llc Immersed hot mirrors for illumination in eye tracking
CN113219614B (zh) * 2017-11-23 2023-02-03 核心光电有限公司 摄影机及制法、移动电子设备及减小凸起占用空间的方法
US10921881B2 (en) 2018-01-18 2021-02-16 Valve Corporation Position tracking system for head-mounted displays that includes sensor integrated circuits
JP2019128517A (ja) * 2018-01-26 2019-08-01 ソニーセミコンダクタソリューションズ株式会社 撮像装置、及び、電子機器
CN112204434A (zh) * 2018-04-03 2021-01-08 新加坡国立大学 使用一个或多个棱镜记录图像的方法和系统
CN111238392B (zh) * 2018-11-28 2021-11-02 Oppo(重庆)智能科技有限公司 承载体及电子设备的检测装置
JP7252247B2 (ja) * 2019-01-03 2023-04-04 コアフォトニクス リミテッド 2つのズーム状態を有する少なくとも1つのカメラを備えるマルチアパーチャカメラ
CN110118968B (zh) * 2019-04-30 2021-01-05 华中科技大学 倾斜四反射板镜像综合孔径辐射计及成像方法
CN111371980B (zh) * 2020-04-18 2020-12-18 重庆哆来目科技有限公司 一种基于光学原理的adas摄像头结构
US11516391B2 (en) * 2020-06-18 2022-11-29 Qualcomm Incorporated Multiple camera system for wide angle imaging
KR102672536B1 (ko) * 2020-07-15 2024-06-04 코어포토닉스 리미티드 스캐닝 폴디드 카메라에서의 시점 수차-보정
CN116679419A (zh) * 2020-08-12 2023-09-01 核心光电有限公司 用于光学防抖的装置和方法
CN116381905A (zh) * 2020-11-05 2023-07-04 核心光电有限公司 基于两个光路折叠元件视场扫描的扫描长焦摄影机
US20230031023A1 (en) * 2021-07-29 2023-02-02 Qualcomm Incorporated Multiple camera system
US11785323B1 (en) * 2022-05-27 2023-10-10 Samsung Electronics Co., Ltd. Camera module including refractive member and electronic device including refractive member

Family Cites Families (297)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2102987A5 (es) 1970-09-09 1972-04-07 Hitachi Shipbuilding Eng Co
US4114171A (en) 1976-04-06 1978-09-12 Vivitar Corporation Reflex camera with internal zoom lens
US4437745A (en) 1982-09-30 1984-03-20 Stephen Hajnal Three dimensional camera system
GB8430980D0 (en) 1984-12-07 1985-01-16 Robinson M Generation of apparently three-dimensional images
US4639586A (en) 1985-02-06 1987-01-27 The United States Of America As Represented By The Secretary Of The Air Force Optically phased laser transmitter
US4740780A (en) 1985-06-24 1988-04-26 Gec Avionics, Inc. Head-up display for automobile
US5012273B1 (en) 1986-05-12 1996-10-01 Asahi Optical Co Ltd Lens shutter type of camera including zoom lens
US6031892A (en) 1989-12-05 2000-02-29 University Of Massachusetts Medical Center System for quantitative radiographic imaging
JPH04114574A (ja) * 1990-09-04 1992-04-15 Ricoh Co Ltd 撮像装置
US5194959A (en) 1989-12-21 1993-03-16 Ricoh Company, Ltd. and Nippon Telegraph and Telephone Corporation Image forming apparatus for forming image corresponding to subject, by dividing optical image corresponding to the subject into plural adjacent optical image parts
US5016109A (en) 1990-07-02 1991-05-14 Bell South Corporation Apparatus and method for segmenting a field of view into contiguous, non-overlapping, vertical and horizontal sub-fields
US5063441A (en) 1990-10-11 1991-11-05 Stereographics Corporation Stereoscopic video cameras with image sensors having variable effective position
US5142357A (en) 1990-10-11 1992-08-25 Stereographics Corp. Stereoscopic video camera with image sensors having variable effective position
US5207000A (en) 1991-06-14 1993-05-04 Industrial Technology Research Institute Method and apparatus useful for determining an angle between a virtual optical axis and a planar surface
US5231461A (en) 1991-12-09 1993-07-27 Hughes Danbury Optical Systems, Inc. Solar monochromator for filter calibration
US5926411A (en) 1991-12-30 1999-07-20 Ioptics Incorporated Optical random access memory
US5686960A (en) 1992-01-14 1997-11-11 Michael Sussman Image input device having optical deflection elements for capturing multiple sub-images
DE4212271C1 (es) 1992-04-11 1993-07-08 Deutsche Forschungsanstalt Fuer Luft- Und Raumfahrt E.V., 5300 Bonn, De
US5243413A (en) 1992-09-02 1993-09-07 At&T Bell Laboratories Color parallax-free camera and display
US5313542A (en) 1992-11-30 1994-05-17 Breault Research Organization, Inc. Apparatus and method of rapidly measuring hemispherical scattered or radiated light
DE69312257T2 (de) 1993-02-11 1998-01-29 Agfa Gevaert Nv Strahlungsfelderkennungsverfahren
JP3523667B2 (ja) * 1993-08-24 2004-04-26 オリンパス株式会社 複眼式光学系
US5586063A (en) 1993-09-01 1996-12-17 Hardin; Larry C. Optical range and speed detection system
US5614941A (en) 1993-11-24 1997-03-25 Hines; Stephen P. Multi-image autostereoscopic imaging system
GB2284273B (en) 1993-11-29 1997-01-08 Hadland Photonics Limited Electronic high speed camera incorporating a beam splitter
JPH089424A (ja) 1994-06-20 1996-01-12 Sanyo Electric Co Ltd 立体画像撮像制御装置
JP3186448B2 (ja) 1994-08-01 2001-07-11 ミノルタ株式会社 立体テレビカメラ
JP3458486B2 (ja) 1994-10-25 2003-10-20 松下電器産業株式会社 全方位撮影装置及び全方位画像合成装置
KR100235343B1 (ko) 1994-12-29 1999-12-15 전주범 영역분할 기법을 이용한 동영상신호 부호화기의 움직임 벡터 측정장치
JPH08194274A (ja) 1995-01-13 1996-07-30 Olympus Optical Co Ltd 立体撮像装置
US5606627A (en) 1995-01-24 1997-02-25 Eotek Inc. Automated analytic stereo comparator
US5745305A (en) 1995-04-28 1998-04-28 Lucent Technologies Inc. Panoramic viewing apparatus
US5990934A (en) 1995-04-28 1999-11-23 Lucent Technologies, Inc. Method and system for panoramic viewing
JPH08334667A (ja) * 1995-06-06 1996-12-17 Olympus Optical Co Ltd 2眼式光学系
US5539483A (en) 1995-06-30 1996-07-23 At&T Corp. Panoramic projection apparatus
US5793527A (en) 1995-06-30 1998-08-11 Lucent Technologies Inc. High resolution viewing system
US5903306A (en) 1995-08-16 1999-05-11 Westinghouse Savannah River Company Constrained space camera assembly
US6111702A (en) 1995-11-30 2000-08-29 Lucent Technologies Inc. Panoramic viewing system with offset virtual optical centers
US6115176A (en) 1995-11-30 2000-09-05 Lucent Technologies Inc. Spherical viewing/projection apparatus
US6141034A (en) 1995-12-15 2000-10-31 Immersive Media Co. Immersive imaging method and apparatus
US5640222A (en) 1996-03-15 1997-06-17 Paul; Eddie Method and apparatus for producing stereoscopic images
US6850279B1 (en) 1996-06-18 2005-02-01 Sony Corporation Optical image recording system, and associated processing system
US5721585A (en) 1996-08-08 1998-02-24 Keast; Jeffrey D. Digital video panoramic image capture and display system
JPH10142490A (ja) 1996-11-15 1998-05-29 Canon Inc 環境認識装置及びカメラ
AU6515798A (en) 1997-04-16 1998-11-11 Isight Ltd. Video teleconferencing
US7028899B2 (en) 1999-06-07 2006-04-18 Metrologic Instruments, Inc. Method of speckle-noise pattern reduction and apparatus therefore based on reducing the temporal-coherence of the planar laser illumination beam before it illuminates the target object by applying temporal phase modulation techniques during the transmission of the plib towards the target
DE19903807A1 (de) 1998-05-05 1999-11-11 Zeiss Carl Fa Beleuchtungssystem insbesondere für die EUV-Lithographie
US6285365B1 (en) 1998-08-28 2001-09-04 Fullview, Inc. Icon referenced panoramic image display
US6144501A (en) 1998-08-28 2000-11-07 Lucent Technologies Inc. Split mirrored panoramic image display
US6128143A (en) 1998-08-28 2000-10-03 Lucent Technologies Inc. Panoramic viewing system with support stand
US6141145A (en) 1998-08-28 2000-10-31 Lucent Technologies Stereo panoramic viewing system
US6195204B1 (en) 1998-08-28 2001-02-27 Lucent Technologies Inc. Compact high resolution panoramic viewing system
US6992700B1 (en) 1998-09-08 2006-01-31 Ricoh Company, Ltd. Apparatus for correction based upon detecting a camera shaking
US7271803B2 (en) 1999-01-08 2007-09-18 Ricoh Company, Ltd. Method and system for simulating stereographic vision
US6611289B1 (en) 1999-01-15 2003-08-26 Yanbin Yu Digital cameras using multiple sensors with multiple lenses
US6870680B2 (en) 2001-08-17 2005-03-22 Sony Corporation Imaging device
US7015954B1 (en) 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
JP3587506B2 (ja) 1999-08-30 2004-11-10 富士重工業株式会社 ステレオカメラの調整装置
GB2354389A (en) 1999-09-15 2001-03-21 Sharp Kk Stereo images with comfortable perceived depth
GB2354390A (en) 1999-09-16 2001-03-21 Ibm Wide-angle image capture apparatus
US6650774B1 (en) 1999-10-01 2003-11-18 Microsoft Corporation Locally adapted histogram equalization
US6862364B1 (en) 1999-10-27 2005-03-01 Canon Kabushiki Kaisha Stereo image processing for radiography
US6782137B1 (en) 1999-11-24 2004-08-24 General Electric Company Digital image display improvement system and method
JP2001194114A (ja) 2000-01-14 2001-07-19 Sony Corp 画像処理装置および画像処理方法、並びにプログラム提供媒体
JP2001209037A (ja) 2000-01-26 2001-08-03 Olympus Optical Co Ltd 可変ホログラム素子及びそれらを用いた光学装置
US6823021B1 (en) 2000-10-27 2004-11-23 Greenwich Technologies Associates Method and apparatus for space division multiple access receiver
US6701081B1 (en) 2000-06-06 2004-03-02 Air Controls, Inc. Dual camera mount for stereo imaging
US6768509B1 (en) 2000-06-12 2004-07-27 Intel Corporation Method and apparatus for determining points of interest on an image of a camera calibration object
WO2002027372A2 (en) 2000-07-14 2002-04-04 Applied Wdm, Inc. Optical waveguide transmission devices
JP2002040584A (ja) 2000-07-28 2002-02-06 Hamamatsu Photonics Kk 高速撮像カメラ
IL139995A (en) 2000-11-29 2007-07-24 Rvc Llc System and method for spherical stereoscopic photographing
EP1231780A3 (en) 2001-02-07 2004-01-14 Sony Corporation Image pickup apparatus
JP2002277736A (ja) 2001-03-21 2002-09-25 Olympus Optical Co Ltd 撮像装置
US6421185B1 (en) 2001-04-16 2002-07-16 The United States Of America As Represented By The Secretary Of The Air Force Wide field-of-view imaging system using a spatial light modulator
US6628897B2 (en) 2001-06-20 2003-09-30 Sony Corporation Camera system
US20030038814A1 (en) 2001-08-27 2003-02-27 Blume Leo R. Virtual camera system for environment capture
US7116351B2 (en) 2001-10-29 2006-10-03 Sony Corporation Imaging device
JP4198449B2 (ja) 2002-02-22 2008-12-17 富士フイルム株式会社 デジタルカメラ
JP2003260025A (ja) 2002-03-08 2003-09-16 Olympus Optical Co Ltd カプセル型内視鏡
US6768598B2 (en) 2002-04-02 2004-07-27 Sony Corporation Image pickup system
US6861633B2 (en) 2002-06-20 2005-03-01 The Aerospace Corporation Microelectromechanical system optical sensor providing bit image data of a viewed image
US7298392B2 (en) 2003-06-26 2007-11-20 Microsoft Corp. Omni-directional camera design for video conferencing
US7209161B2 (en) 2002-07-15 2007-04-24 The Boeing Company Method and apparatus for aligning a pair of digital cameras forming a three dimensional image to compensate for a physical misalignment of cameras
AU2003244304A1 (en) 2002-07-18 2004-02-09 Sony Corporation Imaging data processing method, imaging data processing device, and computer program
JP2004072349A (ja) 2002-08-05 2004-03-04 Canon Inc 撮像装置、及びその制御方法
US7893957B2 (en) 2002-08-28 2011-02-22 Visual Intelligence, LP Retinal array compound camera system
US7084904B2 (en) 2002-09-30 2006-08-01 Microsoft Corporation Foveated wide-angle imaging system and method for capturing and viewing wide-angle images in real time
AU2003302166A1 (en) 2003-01-02 2004-07-29 Covi Technologies, Inc. Optical block assembly
US6933493B2 (en) 2003-04-07 2005-08-23 Kingpak Technology Inc. Image sensor having a photosensitive chip mounted to a metal sheet
IL155525A0 (en) 2003-04-21 2009-02-11 Yaron Mayer System and method for 3d photography and/or analysis of 3d images and/or display of 3d images
JP3709879B2 (ja) 2003-05-01 2005-10-26 日産自動車株式会社 ステレオ画像処理装置
US7463280B2 (en) 2003-06-03 2008-12-09 Steuart Iii Leonard P Digital 3D/360 degree camera system
WO2004109359A1 (ja) 2003-06-09 2004-12-16 Olympus Corporation 可変ミラー
US6809887B1 (en) 2003-06-13 2004-10-26 Vision Technologies, Inc Apparatus and method for acquiring uniform-resolution panoramic images
US7495694B2 (en) 2004-07-28 2009-02-24 Microsoft Corp. Omni-directional camera with calibration and up look angle improvements
US7336299B2 (en) 2003-07-03 2008-02-26 Physical Optics Corporation Panoramic video system with real-time distortion-free imaging
KR100541028B1 (ko) 2003-07-21 2006-01-11 주식회사 옵토메카 이미지 센서 및 그 제조 방법
US20050057659A1 (en) 2003-09-16 2005-03-17 Takami Hasegawa Camera image shake correcting device
US7028546B2 (en) 2003-10-21 2006-04-18 Instrumented Sensor Technology, Inc. Data recorder
US20050111106A1 (en) 2003-10-31 2005-05-26 Kazuhiro Matsumoto Optical element assembly formed of multiple optical elements such as prisms, and image pickup apparatus using the same in image pickup function section
WO2005081020A1 (ja) 2004-02-19 2005-09-01 Canon Kabushiki Kaisha 光学機器およびビームスプリッター
US20050185711A1 (en) 2004-02-20 2005-08-25 Hanspeter Pfister 3D television system and method
JP4223420B2 (ja) * 2004-03-05 2009-02-12 メガビジョン株式会社 撮影装置
GB0406730D0 (en) 2004-03-25 2004-04-28 1 Ltd Focussing method
JP2005303693A (ja) * 2004-04-13 2005-10-27 Auto Network Gijutsu Kenkyusho:Kk カメラ装置
US7593057B2 (en) * 2004-07-28 2009-09-22 Microsoft Corp. Multi-view integrated camera system with housing
WO2006017771A1 (en) 2004-08-06 2006-02-16 University Of Washington Variable fixation viewing distance scanned light displays
EP1812968B1 (en) 2004-08-25 2019-01-16 Callahan Cellular L.L.C. Apparatus for multiple camera devices and method of operating same
US7039292B1 (en) 2004-09-09 2006-05-02 Rockwell Collins, Inc. Optical system for vehicle flight control
DE102004045430A1 (de) 2004-09-18 2006-05-18 Deutsche Telekom Ag Vorrichtung zur Bildstabilisierung
JP3791847B1 (ja) 2005-08-10 2006-06-28 京セラ株式会社 カメラモジュールおよび該カメラモジュールを搭載した情報端末
WO2006052024A1 (ja) 2004-11-15 2006-05-18 Hitachi, Ltd. ステレオカメラ
US7372996B2 (en) 2004-12-27 2008-05-13 Trw Automotive U.S. Llc Method and apparatus for determining the position of a vehicle seat
WO2006075528A1 (ja) 2005-01-13 2006-07-20 National University Corporation NARA Institute of Science and Technology 3次元オブジェクト計測装置
US7512262B2 (en) 2005-02-25 2009-03-31 Microsoft Corporation Stereo-based image processing
US20060215054A1 (en) 2005-03-23 2006-09-28 Eastman Kodak Company Wide angle camera with prism array
JP4177826B2 (ja) 2005-03-23 2008-11-05 株式会社東芝 画像処理装置および画像処理方法
JP2006279538A (ja) 2005-03-29 2006-10-12 Sony Corp 撮像装置
US20060238441A1 (en) 2005-04-25 2006-10-26 The Boeing Company Method and apparatus for displaying a stereoscopic image
US20070102622A1 (en) 2005-07-01 2007-05-10 Olsen Richard I Apparatus for multiple camera devices and method of operating same
WO2007014293A1 (en) 2005-07-25 2007-02-01 The Regents Of The University Of California Digital imaging system and method to produce mosaic images
JP5364965B2 (ja) 2005-07-26 2013-12-11 コニカミノルタ株式会社 撮像光学系、撮像レンズ装置及びデジタル機器
JP2007081473A (ja) 2005-09-09 2007-03-29 Eastman Kodak Co 複数光学系を有する撮像装置
CN101025475A (zh) 2005-10-17 2007-08-29 威盛电子股份有限公司 立体三维影像显示系统与方法
US20070164202A1 (en) 2005-11-16 2007-07-19 Wurz David A Large depth of field line scan camera
JP4979928B2 (ja) 2005-11-28 2012-07-18 株式会社トプコン 三次元形状演算装置及び三次元形状演算方法
US8059185B2 (en) 2005-12-28 2011-11-15 Canon Kabushiki Kaisha Photographing apparatus, image display method, computer program and storage medium for acquiring a photographed image in a wide range
US7215479B1 (en) 2006-02-10 2007-05-08 Micron Technology, Inc. Integrated lens system for image sensor and method for manufacturing the same
GB2435360B (en) 2006-02-16 2009-09-23 Imagination Tech Ltd Method and apparatus for determining motion between video images
JP4844177B2 (ja) 2006-03-07 2011-12-28 株式会社ニコン ブレ補正装置及びカメラ
JP2007274542A (ja) 2006-03-31 2007-10-18 Sony Corp 撮像装置および携帯電話機
CN101055342A (zh) 2006-04-12 2007-10-17 鸿富锦精密工业(深圳)有限公司 自动对焦镜头模组
US8433157B2 (en) 2006-05-04 2013-04-30 Thomson Licensing System and method for three-dimensional object reconstruction from two-dimensional images
WO2007129147A1 (en) 2006-05-05 2007-11-15 Nokia Corporation Optical image recording device with small height and high resolution
EP2023298A4 (en) 2006-05-09 2010-07-21 Sega Corp IMAGE PROCESSING DEVICE AND IMAGE PROCESSING PROGRAM
JP4972779B2 (ja) 2006-05-30 2012-07-11 コニカミノルタアドバンストレイヤー株式会社 光学ユニットおよび撮像装置
JP5067021B2 (ja) 2006-06-01 2012-11-07 富士ゼロックス株式会社 画像形成装置、画像形成装置の組立方法及び解体方法並びに画像形成装置に用いられる仮止め部材
JP4851239B2 (ja) 2006-06-05 2012-01-11 株式会社トプコン 画像処理装置及びその処理方法
JP2008048293A (ja) 2006-08-18 2008-02-28 Kyocera Corp 撮像装置、およびその製造方法
US20080058629A1 (en) 2006-08-21 2008-03-06 University Of Washington Optical fiber scope with both non-resonant illumination and resonant collection/imaging for multiple modes of operation
DE102006044786A1 (de) 2006-09-14 2008-03-27 Schefenacker Vision Systems Germany Gmbh Kamerasystem, Verfahren zum Betreiben eines Kamerasystems und Sensoreinrichtung eines Kamerasystems
EP1912098B1 (en) 2006-10-12 2012-04-25 Carl Zeiss SMT GmbH Unit magnification projection objective
US7817354B2 (en) 2006-10-25 2010-10-19 Capsovision Inc. Panoramic imaging system
JP5040493B2 (ja) 2006-12-04 2012-10-03 ソニー株式会社 撮像装置及び撮像方法
KR100866491B1 (ko) 2007-01-30 2008-11-03 삼성전자주식회사 영상 처리 방법 및 장치
JP4917060B2 (ja) 2007-02-26 2012-04-18 Hoya株式会社 撮像ユニット及び携帯用電子機器
US7683962B2 (en) 2007-03-09 2010-03-23 Eastman Kodak Company Camera using multiple lenses and image sensors in a rangefinder configuration to provide a range map
US8356035B1 (en) 2007-04-10 2013-01-15 Google Inc. Association of terms with images using image similarity
JP4582423B2 (ja) 2007-04-20 2010-11-17 富士フイルム株式会社 撮像装置、画像処理装置、撮像方法、及び画像処理方法
JP5013078B2 (ja) 2007-04-24 2012-08-29 コニカミノルタアドバンストレイヤー株式会社 レンズ鏡胴及び撮像装置
US20080290435A1 (en) 2007-05-21 2008-11-27 Micron Technology, Inc. Wafer level lens arrays for image sensor packages and the like, image sensor packages, and related methods
JP2008294819A (ja) 2007-05-25 2008-12-04 Sony Corp 撮像装置
US7860214B1 (en) 2007-06-13 2010-12-28 The United States Of America As Represented By Secretary Of Agriculture Correction of x-ray images
US20090005112A1 (en) 2007-06-29 2009-01-01 Samsung Electronics Co., Ltd. Optical imaging system configurations for handheld devices
US20090003646A1 (en) 2007-06-29 2009-01-01 The Hong Kong University Of Science And Technology Lossless visible watermarking
CN101743740B (zh) 2007-07-13 2012-04-04 三菱电机株式会社 图像读取装置
JP4900118B2 (ja) 2007-07-31 2012-03-21 コニカミノルタオプト株式会社 カメラモジュールおよび電子機器
TWI383666B (zh) 2007-08-21 2013-01-21 Sony Taiwan Ltd 多重鏡頭相機系統之先進式動態接圖方法
JP5000428B2 (ja) 2007-08-22 2012-08-15 Hoya株式会社 撮像装置
US7973834B2 (en) 2007-09-24 2011-07-05 Jianwen Yang Electro-optical foveated imaging and tracking system
KR20090032261A (ko) 2007-09-27 2009-04-01 삼성전자주식회사 움직임 추정에 기초하여 움직임 보상을 수행하는 영상 처리장치 및 그 방법
JP5152483B2 (ja) 2007-10-05 2013-02-27 ソニー株式会社 撮像装置
US8282222B2 (en) 2007-10-10 2012-10-09 Gerard Dirk Smits Image projector with reflected light tracking
EP2201784B1 (en) 2007-10-11 2012-12-12 Koninklijke Philips Electronics N.V. Method and device for processing a depth-map
WO2009057436A1 (ja) 2007-11-01 2009-05-07 Konica Minolta Holdings, Inc. 撮像装置
JP4831514B2 (ja) 2007-11-13 2011-12-07 独立行政法人情報通信研究機構 設定パラメータ最適化装置およびそのプログラム
KR100927347B1 (ko) 2007-11-13 2009-11-24 파워옵틱스 주식회사 줌렌즈 광학계
US8791984B2 (en) 2007-11-16 2014-07-29 Scallop Imaging, Llc Digital security camera
CN100465699C (zh) 2007-12-05 2009-03-04 浙江大学 利用棱镜分光渐晕补偿实现多ccd无缝拼接的光电系统
KR101349589B1 (ko) 2007-12-13 2014-01-10 엘지이노텍 주식회사 카메라 모듈
US8300086B2 (en) 2007-12-20 2012-10-30 Nokia Corporation Image processing for supporting a stereoscopic presentation
US20090185067A1 (en) 2007-12-21 2009-07-23 Stereo Display, Inc. Compact automatic focusing camera
EP2227711A4 (en) 2008-01-02 2014-01-22 Univ California TELEMIC ROSCOPY DEVICE WITH HIGH NUMERICAL APERTURE
US7978222B2 (en) 2008-03-01 2011-07-12 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Systems and methods for image stabilization
WO2009111642A1 (en) 2008-03-05 2009-09-11 Contrast Optical Design & Engineering, Inc. Multiple image camera and lens system
CN101981915B (zh) 2008-03-26 2014-03-05 柯尼卡美能达精密光学株式会社 摄像装置
WO2009120928A2 (en) 2008-03-28 2009-10-01 The Trustees Of Columbia University In The City Of New York Generalized assorted pixel camera systems and methods
CN101571666A (zh) 2008-04-28 2009-11-04 鸿富锦精密工业(深圳)有限公司 成像设备
US8280194B2 (en) 2008-04-29 2012-10-02 Sony Corporation Reduced hardware implementation for a two-picture depth map algorithm
US9001187B2 (en) 2009-05-11 2015-04-07 CapsoVision, Inc. Capsule imaging system having a folded optical axis
US9171221B2 (en) 2010-07-18 2015-10-27 Spatial Cam Llc Camera to track an object
JP4598102B2 (ja) * 2008-05-28 2010-12-15 富士フイルム株式会社 撮像装置
JP4435867B2 (ja) 2008-06-02 2010-03-24 パナソニック株式会社 法線情報を生成する画像処理装置、方法、コンピュータプログラム、および、視点変換画像生成装置
JP5223486B2 (ja) 2008-06-18 2013-06-26 ソニー株式会社 電子双眼鏡
JP5096496B2 (ja) 2008-07-24 2012-12-12 パナソニック株式会社 カメラ駆動装置
JP2010041381A (ja) 2008-08-05 2010-02-18 Nikon Corp 電子カメラ、ステレオ画像生成方法およびステレオ画像生成システム
KR100942925B1 (ko) 2008-08-11 2010-02-22 한국전자통신연구원 스테레오 비전 시스템 및 그 제어방법
EP2316054A1 (en) 2008-08-14 2011-05-04 Remotereality Corporation Three-mirror panoramic camera
TWI419551B (zh) 2008-08-22 2013-12-11 固態全景影像擷取裝置
JP2010067014A (ja) 2008-09-11 2010-03-25 Ricoh Co Ltd 画像分類装置及び画像分類方法
WO2010035223A1 (en) 2008-09-25 2010-04-01 Koninklijke Philips Electronics N.V. Three dimensional image data processing
WO2010044223A1 (ja) 2008-10-14 2010-04-22 日本電産サンキョー株式会社 撮影用光学装置
US8267601B2 (en) 2008-11-04 2012-09-18 James Cameron Platform for stereoscopy for hand-held film/video camera stabilizers
JP4852591B2 (ja) 2008-11-27 2012-01-11 富士フイルム株式会社 立体画像処理装置、方法及び記録媒体並びに立体撮像装置
CN101770059B (zh) 2008-12-27 2012-06-20 鸿富锦精密工业(深圳)有限公司 相机模组
US9395617B2 (en) 2009-01-05 2016-07-19 Applied Quantum Technologies, Inc. Panoramic multi-scale imager and method therefor
US8326036B2 (en) 2009-02-20 2012-12-04 Qylur Security Systems, Inc. Automated image separation method
GB0903689D0 (en) 2009-03-03 2009-04-15 Sigmavision Ltd Vehicle tyre measurement
JP5316118B2 (ja) 2009-03-12 2013-10-16 オムロン株式会社 3次元視覚センサ
US20100265313A1 (en) 2009-04-17 2010-10-21 Sony Corporation In-camera generation of high quality composite panoramic images
US20100278423A1 (en) 2009-04-30 2010-11-04 Yuji Itoh Methods and systems for contrast enhancement
US8503778B2 (en) 2009-05-14 2013-08-06 National University Of Singapore Enhancing photograph visual quality using texture and contrast data from near infra-red images
US8170408B2 (en) 2009-05-18 2012-05-01 Invensense, Inc. Optical image stabilization in a digital still camera or handset
US8194170B2 (en) 2009-06-02 2012-06-05 Algonquin College Axicon lens array
US9124874B2 (en) 2009-06-05 2015-09-01 Qualcomm Incorporated Encoding of three-dimensional conversion information with two-dimensional video sequence
US8405750B2 (en) 2009-06-08 2013-03-26 Aptina Imaging Corporation Image sensors and image reconstruction methods for capturing high dynamic range images
CN101581828B (zh) 2009-06-09 2011-06-22 苏州大学 环形孔径超薄光学成像系统
US9479768B2 (en) 2009-06-09 2016-10-25 Bartholomew Garibaldi Yukich Systems and methods for creating three-dimensional image media
JP5293463B2 (ja) 2009-07-09 2013-09-18 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
US8228417B1 (en) 2009-07-15 2012-07-24 Adobe Systems Incorporated Focused plenoptic camera employing different apertures or filtering at different microlenses
JP5450200B2 (ja) 2009-07-17 2014-03-26 富士フイルム株式会社 撮像装置、方法およびプログラム
TWI389559B (zh) 2009-08-14 2013-03-11 Ind Tech Res Inst 前景影像分離方法
US8294073B1 (en) 2009-10-01 2012-10-23 Raytheon Company High angular rate imaging system and related techniques
US9063345B2 (en) 2009-10-19 2015-06-23 Pixar Super light-field lens with doublet lenslet array element
JP5539818B2 (ja) 2009-10-20 2014-07-02 富士フイルム株式会社 撮像レンズおよび撮像装置
US8325187B2 (en) 2009-10-22 2012-12-04 Samsung Electronics Co., Ltd. Method and device for real time 3D navigation in panoramic images and cylindrical spaces
US8457398B2 (en) 2009-10-27 2013-06-04 Himax Media Solutions, Inc. Image enhancement method and apparatuses utilizing the same
US8514491B2 (en) 2009-11-20 2013-08-20 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
WO2011066275A2 (en) 2009-11-25 2011-06-03 Massachusetts Institute Of Technology Actively addressable aperture light field camera
US8400555B1 (en) 2009-12-01 2013-03-19 Adobe Systems Incorporated Focused plenoptic camera employing microlenses with different focal lengths
US9030530B2 (en) 2009-12-15 2015-05-12 Thomson Licensing Stereo-image quality and disparity/depth indications
US8442392B2 (en) 2009-12-22 2013-05-14 Nokia Corporation Method and apparatus for operating the automatic focus or the optical imaging stabilizing system
CN101819319B (zh) * 2009-12-28 2012-07-04 中国科学院西安光学精密机械研究所 使用菲涅尔双棱镜产生多层光片的荧光显微方法及装置
US20110213664A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
JP5683025B2 (ja) 2010-04-19 2015-03-11 パナソニックIpマネジメント株式会社 立体画像撮影装置および立体画像撮影方法
JP5593118B2 (ja) 2010-04-30 2014-09-17 日本電産サンキョー株式会社 振れ補正機能付き光学ユニット
JP5622443B2 (ja) 2010-06-08 2014-11-12 日本電産サンキョー株式会社 振れ補正機能付き光学ユニット
WO2011155318A1 (ja) 2010-06-08 2011-12-15 日本電産サンキョー株式会社 振れ補正装置、撮影用光学装置およびレンズ駆動装置
JP5138734B2 (ja) 2010-06-15 2013-02-06 シャープ株式会社 撮像レンズ、および撮像モジュール
CN101902657B (zh) 2010-07-16 2011-12-21 浙江大学 一种基于深度图分层的虚拟多视点图像的生成方法
US9485495B2 (en) 2010-08-09 2016-11-01 Qualcomm Incorporated Autofocus for stereo images
TWI409577B (zh) 2010-08-20 2013-09-21 Primax Electronics Ltd 光學影像系統
US20120056987A1 (en) 2010-09-03 2012-03-08 Luke Fedoroff 3d camera system and method
WO2012039043A1 (ja) 2010-09-22 2012-03-29 富士通株式会社 ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム
JP6042814B2 (ja) 2010-10-01 2016-12-14 コンテックス・エー/エス イメージセンサの信号輝度マッチング法
SG190730A1 (en) 2010-12-09 2013-07-31 Univ Nanyang Tech Method and an apparatus for determining vein patterns from a colour image
JP5716465B2 (ja) 2011-03-09 2015-05-13 ソニー株式会社 撮像装置
US9197798B2 (en) 2011-03-25 2015-11-24 Adobe Systems Incorporated Thin plenoptic cameras using microspheres
US9172856B2 (en) 2011-03-29 2015-10-27 Microsoft Technology Licensing, Llc Folded imaging path camera
US8928988B1 (en) 2011-04-01 2015-01-06 The Regents Of The University Of California Monocentric imaging
EP2695385B8 (en) 2011-04-08 2016-03-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Capturing panoramic or semi-panoramic 3d scenes
US20120293607A1 (en) 2011-05-17 2012-11-22 Apple Inc. Panorama Processing
CN103597810B (zh) * 2011-05-27 2017-02-15 诺基亚技术有限公司 图像拼接
US9635274B2 (en) 2011-06-15 2017-04-25 Microsoft Technology Licensing, Llc High resolution multispectral image capture
TWI507807B (zh) 2011-06-24 2015-11-11 Mstar Semiconductor Inc 自動對焦方法與裝置
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
CN102288302B (zh) * 2011-06-29 2014-06-25 北京理工大学 利用双三角棱镜系统进行调制的光学读出方法
US8896890B2 (en) 2011-06-30 2014-11-25 Lexmark International, Inc. Image capture system having a folded optical path
JP5848052B2 (ja) 2011-07-21 2016-01-27 日本電産サンキョー株式会社 振れ補正機能付き光学ユニット
US8784301B2 (en) 2011-08-12 2014-07-22 Intuitive Surgical Operations, Inc. Image capture unit and method with an extended depth of field
US8988564B2 (en) 2011-09-09 2015-03-24 Apple Inc. Digital camera with light splitter
JP2013061476A (ja) * 2011-09-13 2013-04-04 Sony Corp レンズ光学系及び撮像装置
US9438889B2 (en) 2011-09-21 2016-09-06 Qualcomm Incorporated System and method for improving methods of manufacturing stereoscopic image sensors
US8855476B2 (en) 2011-09-28 2014-10-07 DigitalOptics Corporation MEMS MEMS-based optical image stabilization
US9495597B2 (en) 2011-10-20 2016-11-15 Monsanto Technology Llc Plant stand counter
US9692991B2 (en) 2011-11-04 2017-06-27 Qualcomm Incorporated Multispectral imaging system
US8582220B2 (en) 2011-12-05 2013-11-12 Himax Technologies Limited Lens module
CN202405984U (zh) 2011-12-10 2012-08-29 东莞市旭业光电科技有限公司 一种用于音圈马达的垫片
KR101975893B1 (ko) 2012-03-21 2019-09-10 엘지이노텍 주식회사 카메라 모듈
US9210405B2 (en) 2012-03-22 2015-12-08 Qualcomm Technologies, Inc. System and method for real time 2D to 3D conversion of video in a digital camera
KR101818778B1 (ko) 2012-03-23 2018-01-16 한국전자통신연구원 실감 파노라마 영상 생성을 위한 3d 데이터 포맷 생성/소비 장치 및 방법
US20130260823A1 (en) 2012-03-31 2013-10-03 Ashutosh Y. Shukla Compact Portable Electronic Device Having Augmented Back Volume for Speaker
NL2008639C2 (en) 2012-04-13 2013-10-16 Cyclomedia Technology B V Device, system and vehicle for recording panoramic images, and a device and method for panoramic projection thereof.
JP2013238848A (ja) 2012-04-20 2013-11-28 Hoya Corp 撮像装置
EP2677734A3 (en) 2012-06-18 2016-01-13 Sony Mobile Communications AB Array camera imaging system and method
EP2677733A3 (en) 2012-06-18 2015-12-09 Sony Mobile Communications AB Array camera imaging system and method
US9134503B2 (en) 2012-07-06 2015-09-15 Apple Inc. VCM OIS actuator module
WO2014012603A1 (en) 2012-07-17 2014-01-23 Heptagon Micro Optics Pte. Ltd. Optical devices, in particular computational cameras, and methods for manufacturing the same
CN105787908B (zh) 2012-08-08 2019-05-14 杜比实验室特许公司 用于高动态范围图像的图像处理方法、装置及存储介质
US9398264B2 (en) 2012-10-19 2016-07-19 Qualcomm Incorporated Multi-camera system using folded optics
JP2014112302A (ja) 2012-12-05 2014-06-19 Ricoh Co Ltd 所定領域管理システム、通信方法、及びプログラム
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9270876B2 (en) 2013-01-05 2016-02-23 The Lightco Inc. Methods and apparatus for using multiple optical chains in parallel with multiple different exposure times
JP2016114615A (ja) 2013-04-09 2016-06-23 株式会社ニコン 撮像装置
US9171355B2 (en) 2013-04-12 2015-10-27 Qualcomm Incorporated Near infrared guided image denoising
JP2015036716A (ja) 2013-08-12 2015-02-23 ソニー株式会社 像ぶれ補正装置及び撮像装置
US10178373B2 (en) 2013-08-16 2019-01-08 Qualcomm Incorporated Stereo yaw correction using autofocus feedback
EP2860699A1 (en) 2013-10-11 2015-04-15 Telefonaktiebolaget L M Ericsson (Publ) Technique for view synthesis
US9223118B2 (en) 2013-10-31 2015-12-29 Apple Inc. Small form factor telephoto camera
CN203745777U (zh) 2014-01-10 2014-07-30 瑞声声学科技(深圳)有限公司 阵列式镜头装置
EP3105916A1 (en) 2014-02-13 2016-12-21 Sony Corporation Method and system for adjusting camera settings using corneal reflection
US9316810B2 (en) 2014-03-07 2016-04-19 Apple Inc. Folded telephoto camera lens system
US9557627B2 (en) 2014-03-07 2017-01-31 Apple Inc. Folded camera lens systems
US9383550B2 (en) 2014-04-04 2016-07-05 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US9374516B2 (en) 2014-04-04 2016-06-21 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US10013764B2 (en) 2014-06-19 2018-07-03 Qualcomm Incorporated Local adaptive histogram equalization
US9386222B2 (en) 2014-06-20 2016-07-05 Qualcomm Incorporated Multi-camera system using folded optics free from parallax artifacts
US9819863B2 (en) 2014-06-20 2017-11-14 Qualcomm Incorporated Wide field of view array camera for hemispheric and spherical imaging
US9294672B2 (en) 2014-06-20 2016-03-22 Qualcomm Incorporated Multi-camera system using folded optics free from parallax and tilt artifacts
US20150373269A1 (en) 2014-06-20 2015-12-24 Qualcomm Incorporated Parallax free thin multi-camera system capable of capturing full wide field of view images
US9541740B2 (en) 2014-06-20 2017-01-10 Qualcomm Incorporated Folded optic array camera using refractive prisms
US9549107B2 (en) 2014-06-20 2017-01-17 Qualcomm Incorporated Autofocus for folded optic array cameras
US9832381B2 (en) 2014-10-31 2017-11-28 Qualcomm Incorporated Optical image stabilization for thin cameras
US10334158B2 (en) 2014-11-03 2019-06-25 Robert John Gove Autonomous media capturing
US10070055B2 (en) 2015-03-25 2018-09-04 Massachusetts Institute Of Technology Devices and methods for optically multiplexed imaging
US20170038502A1 (en) 2015-08-06 2017-02-09 Qualcomm Incorporated Methods and apparatus having a two-surface microlens array for low f-number plenoptic cameras

Also Published As

Publication number Publication date
CN110430345A (zh) 2019-11-08
CA2951277A1 (en) 2015-12-23
JP6423019B2 (ja) 2018-11-14
HUE039483T2 (hu) 2019-01-28
CN106662796A (zh) 2017-05-10
US9541740B2 (en) 2017-01-10
WO2015195905A1 (en) 2015-12-23
KR102008054B1 (ko) 2019-08-06
EP3158382A1 (en) 2017-04-26
US9854182B2 (en) 2017-12-26
US20150370040A1 (en) 2015-12-24
JP2017524977A (ja) 2017-08-31
CN106662796B (zh) 2019-08-23
BR112016029782A2 (pt) 2017-08-22
CN110430345B (zh) 2021-07-06
US20170118421A1 (en) 2017-04-27
EP3158382B1 (en) 2018-06-06
KR20170021788A (ko) 2017-02-28

Similar Documents

Publication Publication Date Title
ES2685719T3 (es) Cámara de matriz de óptica plegada con prismas refractivos
ES2841402T3 (es) Sistema multicámara que usa óptica plegada sin artefactos de paralaje
US9819863B2 (en) Wide field of view array camera for hemispheric and spherical imaging
CA2949550C (en) Multi-camera system using folded optics free from parallax and tilt artifacts
ES2714278T3 (es) Sistema multicámara que usa óptica plegada
US20150373269A1 (en) Parallax free thin multi-camera system capable of capturing full wide field of view images
JP2017525208A (ja) 完全な広視野画像をキャプチャすることができる視差のない薄型マルチカメラシステム