BR112016023095B1 - Foco automático em sistema multicâmera de óptica dobrada discreto - Google Patents

Foco automático em sistema multicâmera de óptica dobrada discreto Download PDF

Info

Publication number
BR112016023095B1
BR112016023095B1 BR112016023095-7A BR112016023095A BR112016023095B1 BR 112016023095 B1 BR112016023095 B1 BR 112016023095B1 BR 112016023095 A BR112016023095 A BR 112016023095A BR 112016023095 B1 BR112016023095 B1 BR 112016023095B1
Authority
BR
Brazil
Prior art keywords
lens
sensor
image
image sensor
light
Prior art date
Application number
BR112016023095-7A
Other languages
English (en)
Other versions
BR112016023095A2 (pt
Inventor
Thomas Wesley Osborne
Original Assignee
Qualcomm Incorporated
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US14/526,104 external-priority patent/US9374516B2/en
Application filed by Qualcomm Incorporated filed Critical Qualcomm Incorporated
Publication of BR112016023095A2 publication Critical patent/BR112016023095A2/pt
Publication of BR112016023095B1 publication Critical patent/BR112016023095B1/pt

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/001Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
    • G02B13/0015Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras characterised by the lens design
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/001Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
    • G02B13/0055Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing a special optical element
    • G02B13/006Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing a special optical element at least one element being a compound optical element, e.g. cemented elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/001Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
    • G02B13/0015Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras characterised by the lens design
    • G02B13/002Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras characterised by the lens design having at least one aspherical surface
    • G02B13/0045Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras characterised by the lens design having at least one aspherical surface having five or more lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/001Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
    • G02B13/0055Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing a special optical element
    • G02B13/0065Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing a special optical element having a beam-folding prism or mirror
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B17/00Systems with reflecting surfaces, with or without refracting elements
    • G02B17/08Catadioptric systems
    • G02B17/082Catadioptric systems using three curved mirrors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B17/00Systems with reflecting surfaces, with or without refracting elements
    • G02B17/08Catadioptric systems
    • G02B17/0852Catadioptric systems having a field corrector only
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/09Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification adapted for automatic focusing or varying magnification
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/17Bodies with reflectors arranged in beam forming the photographic image, e.g. for reducing dimensions of camera
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers
    • G03B3/10Power-operated focusing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • H04N23/16Optical arrangements associated therewith, e.g. for beam-splitting or for colour correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • H04N25/615Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4" involving a transfer function modelling the optical system, e.g. optical transfer function [OTF], phase transfer function [PhTF] or modulation transfer function [MTF]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10TTECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
    • Y10T29/00Metal working
    • Y10T29/49Method of mechanical manufacture
    • Y10T29/49826Assembling or joining

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Lenses (AREA)
  • Cameras In General (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Structure And Mechanism Of Cameras (AREA)

Abstract

foco automático em sistema multicâmera de óptica dobrada discreto. são reveladas modalidades de sistemas e métodos de imageamento de foco automático, por exemplo, que usam uma configuração de óptica dobrada. um sistema inclui pelo menos uma câmera configurada para capturar uma cena de imagem de alvo, que inclui um sensor de imagem que compreende uma matriz de elementos de sensor, uma superfície de dobramento de luz primária configurada para direcionar uma porção de luz recebida em uma primeira direção, e um elemento óptico que tem uma superfície de dobramento de luz secundária que direciona luz em uma segunda direção. o sistema também pode incluir um conjunto de lentes que tem pelo menos uma lente estacionária posicionada entre a superfície de dobramento de luz secundária e o sensor de imagem, em que a pelo menos uma lente estacionária têm uma primeira superfície acoplada mecanicamente ao elemento óptico e uma segunda superfície acoplada mecanicamente ao sensor de imagem, pelo menos uma lente móvel posicionada entre a superfície de dobramento de luz primária e o elemento óptico, e um atuador configurado para mover a pelo menos uma lente móvel para focar a propagação de luz através do conjunto de lentes para o sensor de imagem.

Description

CAMPO DA TÉCNICA
[0001] A presente revelação refere-se a sistemas de imageamento e, particularmente, a focar automaticamente um sistema de imageamento de multissensor que tem óptica dobrada.
ANTECEDENTES
[0002] Diversos dispositivos móveis, tais como telefones móveis e dispositivos de computação do tipo tablet, incluem câmeras que podem ser operadas por um usuário para capturar imagens de instantâneo e/ou imagens de vídeos. Devido ao fato de tais dispositivos móveis serem projetados tipicamente para serem relativamente finos, pode ser importante projetar as câmeras ou os sistemas de imageamento para serem os mais finos possíveis a fim de manter um dispositivo móvel discreto. Um dentre os fatores limitantes quanto a quão finos uma câmera móvel, dispositivo ou sistema de imageamento podem ser construídos é a câmera, visto que câmeras de dispositivo móvel tradicionais têm uma diversidade de elementos ópticos (por exemplo, sistema de lente, conjunto de foco automático e sensor de imagem) dispostos linearmente ao longo da altura do dispositivo. Consequentemente, a altura de cadeia óptica inclui elementos ópticos (por exemplo, componentes ópticos refrativos, estruturas de suporte tais como a lente, cilindro ou espaçadores de elemento óptico), o comprimento focal do sistema de lente, mecanismos de foco automático, e possivelmente outros elementos de câmera limitam quão fino um dispositivo móvel pode ser construído. Conforme o dispositivo se torna mais fino, o comprimento focal da câmera pode precisar ser encurtado, o que pode fazer com que o diâmetro de círculo de imagem diminua. Se for desejado aumentar o número de pixels de sensor de imagem, então, normalmente a densidade de pixel precisará ser tornada menor ou o campo de vista (FOV) de câmera da cena no espaço de objeto precisará ser aumentado. Se não for possível reduzir a densidade de pixel, então, o FOV da câmera pode precisar ser aumentado. Em algum ponto, pode não ser prático ou possível continuar a diminuir o comprimento focal aumentando-se o FOV ou diminuindo-se a densidade de pixel. Consequentemente, pode ser desejado ter dispositivos de captura de imagem mais discretos sem ter que encurtar o comprimento focal ou diminuir a resolução da imagem.
SUMÁRIO
[0003] Matrizes de sensor de imagem óptica dobrada permitem a criação de dispositivos de captura de imagem discretos sem ter que encurtar o comprimento focal. Algumas matrizes de sensor de imagem óptica dobrada empregam um espelho ou prisma central com múltiplas facetas para dividir luz que chega que compreende uma imagem-alvo da cena em múltiplas porções para a captura pelos sensores na matriz, em que cada faceta direciona uma porção da luz a partir da imagem-alvo em direção a um sensor na matriz. Cada porção da luz dividida pode ser passada através de um conjunto de lentes e refletido para fora de uma superfície posicionada diretamente acima ou abaixo de um sensor, de modo que cada sensor capture uma porção da imagem. Os campos de vista de sensor podem se sobrepor para auxiliar a costura das porções capturadas em uma imagem completa.
[0004] Devido à reflexão de luz de superfícies múltiplas em direção a múltiplos sensores e às limitações de altura na câmera, módulos de foco automático e conjuntos de procedimentos tradicionais não são adaptados para tais matrizes de sensor discreto óptico dobradas. A óptica dobrada e outros recursos estruturais de tais matrizes de sensor podem tornar os mecanismos de foco automático difíceis de implantar. Movendo-se um conjunto de lentes de foco automático para cima e para baixo sobre cada sensor, conforme é feito tipicamente hoje em dia para a maior parte dos dispositivos móveis com câmeras, diminuiria a altura do sistema e pode alterar o ângulo incidente e/ou o posicionamento relativo dos eixos geométricos ópticos com relação a uma linha ortogonal do plano de imageamento.
[0005] Conforme declarado acima, outro problema com o foco automático em câmeras de matriz óptica dobrada é um fator de formação pequeno (possivelmente 4,5 mm ou menor), em que resolução ultra alta ao longo da altura de imagem é necessária. A satisfação tanto das restrições de altura quanto das exigências de desempenho é difícil de ser alcançada com lentes de Campo de Vista (FOV) amplas. A forma mais direta para focar a lente é mover o conjunto de lentes inteiro para cima e para baixo sobre o sensor, porém, isso pode alterar a posição do eixo geométrico óptico de uma câmera com relação ao eixo geométrico óptico de cada uma dentre as outras câmeras, bem como aumentar a altura geral do sistema. Uma abordagem alternativa é necessária e é descrita abaixo.
[0006] Os problemas mencionados anteriormente, entre outros, são abordados pelos conjuntos de procedimentos de foco automático de câmera de matriz óptica dobrada descritos no presente documento para fornecer uma imagem focada automaticamente para cada sensor.Redirecionando-se a luz em direção a cada sensor na matriz com o uso de uma superfície primária e secundária, e posicionando-se os conjuntos de lentes usados para focar a luz que chega entre as superfícies primária e secundária, a matriz de sensor pode ser posicionada em um substrato achatado paralelo a uma porção móvel do conjunto de lentes. O comprimento focal mais longo de tal câmera de matriz torna possível implantar recursos tais como ampliação óptica e incorporar óptica mais complicada que exige mais espaço que o oferecido normalmente pela câmera móvel tradicional, tal como adicionar mais elementos ópticos. Por exemplo, o uso de múltiplas lentes pode aumentar o comprimento focal da câmera e, desse modo, diminuir o FOV da câmera conforme é feito para lentes de ampliação óptica quando mais resolução for desejada e, de modo semelhante, quando for desejado que o FOV seja mais amplo o comprimento focal pode ser diminuído. Ademais, o uso de múltiplas lentes ao longo do campo de vista do sistema pode aumentar a resolução eficaz total ao longo do campo de vista inteiro da matriz de multicâmera.
[0007] Em algumas modalidades, um projeto de sistema de lente permite o movimento lateral de uma porção móvel de um conjunto de lentes dentro das tolerâncias mecânicas do sistema de óptica dobrada enquanto mantém bom desempenho de imagem, por exemplo, definido por ter valores de função de transferência de modulação (MTF) aceitáveis e uma faixa de foco entre 20 cm e infinito. A porção móvel pode ser movida em uma direção paralela a um plano formado pelo sensor de imagem. O sistema de lente pode incluir adicionalmente uma porção estacionária do conjunto de lentes. Em algumas modalidades, dois ou mais conjuntos de lentes móveis podem ser incorporados para implantar Ampliação e AF. Em algumas implantações, a porção estacionária do conjunto de lentes pode ser uma lente corretora de campo colocada próxima ao sensor de imagem, por exemplo, afixada a uma placa de cobertura de vidro posicionada sobre o sensor.
[0008] Um conjunto de foco automático que usa o projeto de sistema de lente de duas partes descrito acima pode implantar um trilho-guia e um atuador em algumas modalidades. Por exemplo, a porção móvel do conjunto de lentes pode ser acoplada a um atuador que move a porção móvel através de uma faixa de posições para alcançar comprimentos focais diferentes. Em algumas modalidades, a porção móvel pode ser acoplada ao atuador por um trilho- guia que passa ao longo de uma borda de um prisma de sensor secundário, sendo que o prisma de sensor secundário é posicionado abaixo do sensor. Movendo-se o trilho-guia ao longo da borda do prisma de sensor secundário, o conjunto de foco automático pode mover lateralmente (por exemplo, em uma direção paralela ao plano formado pelo sensor de imagem) a porção móvel do conjunto de lentes enquanto restringe a inclinação, o rolamento, o passo e a guinada dentro das tolerâncias do projeto de lente e o movimento lateral translacional na direção oposta do eixo geométrico óptico dentro das tolerâncias do projeto de lente.
[0009] Em algumas modalidades, um conjunto de foco automático que usa um projeto de sistema de lente de duas partes, conforme descrito acima pode ser fornecido para cada sensor em uma matriz de óptica dobrada.
[0010] Uma inovação inclui um sistema de imageamento, que inclui pelo menos uma câmera configurada para capturar uma cena de imagem de alvo. A pelo menos uma câmera inclui um sensor de imagem que compreende uma matriz de elementos de sensor, uma superfície de dobramento de luz primária configurada para direcionar uma porção de luz recebida em uma primeira direção, um elemento óptico que tem uma superfície de dobramento de luz secundária, a superfície de dobramento de luz secundária posicionada para redirecionar a luz recebida a partir da superfície de dobramento de luz primária em uma segunda direção, e um conjunto de lentes. O conjunto de lentes inclui a pelo menos uma lente estacionária posicionada entre a superfície de dobramento de luz secundária e o sensor de imagem, em que a pelo menos uma lente estacionária tem uma primeira superfície acoplada mecanicamente ao elemento óptico e uma segunda superfície acoplada mecanicamente ao sensor de imagem, e pelo menos uma lente móvel posicionada entre a superfície de dobramento de luz primária e o elemento óptico. A pelo menos uma câmera inclui adicionalmente um atuador configurado para mover a pelo menos uma lente móvel para focar a propagação de luz através do conjunto de lentes para o sensor de imagem.
[0011] Diversas modalidades com um ou mais aspectos adicionais são contemplados. Em algumas modalidades, o elemento óptico inclui adicionalmente uma superfície de saída através em que a luz redirecionada pela superfície de dobramento de luz secundária na segunda direção se propaga em direção ao sensor de imagem, e em que a pelo menos uma lente estacionária é conectada à superfície de saída. O sistema de imageamento pode incluir um vidro de cobertura disposto entre o sensor de imagem e a pelo menos uma lente estacionária. O vidro de cobertura pode incluir uma primeira superfície de vidro de cobertura acoplada à superfície de saída da pelo menos uma lente estacionária, e uma segunda superfície de vidro de cobertura acoplada ao sensor de imagem. O vidro de cobertura pode incluir uma segunda superfície de vidro de cobertura acoplada ao sensor de imagem. O elemento óptico, a pelo menos uma lente estacionária, o vidro de cobertura e o sensor de imagem podem ser acoplados mecanicamente entre si em uma pilha.
[0012] Em algumas modalidades, a matriz de elementos de sensor tem um passo de elemento de sensor, sendo que o sensor de imagem tem taxa de amostragem de Nyquist determinada com base pelo menos em parte no passo de elemento de sensor, e em que o sistema óptico é configurado para ter um desempenho de MTF de cerca de 30% ou menos no sensor de imagem taxa de amostragem de Nyquist. Em algumas modalidades, o passo de elemento de sensor é de cerca de 1,4 μm ou menor. Outro aspecto é que a pelo menos uma câmera pode incluir adicionalmente pelo menos um trilho-guia acoplado entre o atuador e a pelo menos uma lente móvel do conjunto de lentes, sendo que o pelo menos um trilho-guia é posicionado para engatar de modo deslizante uma superfície no interior da câmera para delimitar o movimento da pelo menos uma lente móvel na direção oposta de um eixo geométrico óptico ou de girar ao redor do eixo geométrico óptico, sendo que o eixo geométrico óptico é substancialmente paralelo à primeira direção. A pelo menos uma câmera pode incluir uma pluralidade de câmeras configuradas para capturar uma pluralidade correspondente de porções da cena de imagem de alvo, e o sistema de imageamento compreende adicionalmente um processador configurado para gerar uma imagem final da cena de imagem de alvo com base pelo menos parcialmente na pluralidade correspondente de porções. Em algumas modalidades, o passo de elemento de sensor pode ser aproximadamente de 1,0 μm ou menor. Em algumas modalidades o diâmetro da pelo menos uma lente móvel é 4,5 mm ou menor.
[0013] Em algumas modalidades do sistema a pelo menos uma lente estacionária inclui uma lente de plano côncavo que tem uma superfície substancialmente achatada disposta paralela ao sensor de imagem e próxima ao elemento óptico, e uma superfície côncava disposta oposta à superfície substancialmente achatada e disposta próxima ao sensor de imagem. Outro aspecto é que a superfície de dobramento de luz secundária pode incluir um espelho. Em algumas modalidades, o elemento óptico inclui adicionalmente uma estrutura de suporte acoplada ao espelho, e em que o sensor de imagem e o espelho são acoplados mecanicamente entre si para serem estacionários um em relação ao outro.
[0014] Outra inovação é um sistema de imageamento, que inclui pelo menos uma câmera configurada para capturar uma cena de imagem de alvo, em que a pelo menos uma câmera inclui um sensor de imagem que compreende uma matriz de elementos de sensor, uma superfície de dobramento de luz primária configurada para direcionar uma porção de luz recebida em uma primeira direção, um meio para redirecionar luz configurado para redirecionar luz recebida a partir da superfície de dobramento de luz primária em uma segunda direção ao sensor de imagem, um conjunto de lentes que tem pelo menos uma lente estacionária posicionada entre a superfície de dobramento de luz secundária e o sensor de imagem, a pelo menos uma lente estacionária que tem uma primeira superfície acoplada mecanicamente ao meio para redirecionar luz e uma segunda superfície acoplada mecanicamente ao sensor de imagem, e pelo menos uma lente móvel posicionada entre a superfície de dobramento de luz primária e o elemento óptico. O sistema de imageamento pode incluir adicionalmente meios para mover a pelo menos uma lente móvel para focar a propagação de luz através do conjunto de lentes para o sensor de imagem. Em algumas modalidades, os meios para redirecionar luz compreendem uma superfície de saída através da qual os meios redirecionados de luz para redirecionar luz na segunda direção se propagam em direção ao sensor de imagem, e em que a pelo menos uma lente estacionária é conectada à superfície de saída. Em algumas modalidades, o sistema compreende adicionalmente meios para proteger o sensor de imagem disposto entre o sensor de imagem e a pelo menos uma lente estacionária. Os meios para proteger o sensor de imagem incluem um vidro de cobertura. O vidro de cobertura pode incluir uma primeira superfície de vidro de cobertura acoplada à superfície de saída da pelo menos uma lente estacionária. O vidro de cobertura pode incluir uma segunda superfície de vidro de cobertura acoplada ao sensor de imagem. Em diversas modalidades, os meios para redirecionar luz, a pelo menos uma lente estacionária, o vidro de cobertura, e o sensor de imagem são acoplados mecanicamente juntos para serem estacionários uns em relação aos outros. Em algumas modalidades, a pelo menos uma lente estacionária inclui uma lente de plano côncavo que tem uma superfície substancialmente achatada disposta paralela ao sensor de imagem e próxima ao elemento óptico, e uma superfície côncava disposta oposta à superfície substancialmente achatada e disposta próxima ao sensor de imagem.
[0015] Outra inovação é um método que inclui fornecer pelo menos uma câmera configurada para capturar uma cena de imagem de alvo, em que a pelo menos uma câmera inclui um sensor de imagem que compreende uma matriz de elementos de sensor, uma superfície de dobramento de luz primária configurada para direcionar uma porção de luz recebida em uma primeira direção, um elemento óptico que tem uma superfície de dobramento de luz secundária, sendo que a superfície de dobramento de luz secundária é posicionada para redirecionar luz configurado para redirecionar luz recebida a partir da superfície de dobramento de luz primária em uma segunda direção, e um conjunto de lentes que tem pelo menos uma lente estacionária posicionada entre a superfície de dobramento de luz secundária e o sensor de imagem, a pelo menos uma lente estacionária que tem uma primeira superfície acoplada mecanicamente ao elemento óptico e uma segunda superfície acoplada mecanicamente ao sensor de imagem, e pelo menos uma lente móvel posicionada entre a superfície de dobramento de luz primária e o elemento óptico. A pelo menos uma câmera tem adicionalmente um atuador configurado para mover a pelo menos uma lente móvel para focar a propagação de luz através do conjunto de lentes para o sensor de imagem. O método inclui adicionalmente focar a pelo menos uma câmera na cena de imagem de alvo movendo-se a pelo menos uma lente móvel enquanto mantém o posicionamento relativo do elemento óptico, a pelo menos uma lente estacionária e o sensor de imagem. A pelo menos uma câmera pode incluir uma pluralidade de câmeras, e o método inclui adicionalmente receber imagens da pluralidade de câmeras e formar uma imagem que compreender pelo menos uma porção das imagens recebidas a partir da pluralidade de câmeras.
[0016] Outra inovação inclui um sistema de imageamento que tem pelo menos uma câmera configurada para capturar uma cena de imagem de alvo, em que a pelo menos uma câmera inclui um sensor de imagem que compreende uma matriz de elementos de sensor, sendo que a matriz de elementos de sensor tem um passo de elemento de sensor, sendo que o sensor de imagem tem uma taxa de amostragem de Nyquist determinada com base pelo menos parte no passo de elemento de sensor, em que um elemento óptico tem uma superfície de dobramento de luz secundária, sendo que a superfície de dobramento de luz secundária é posicionada para redirecionar a luz recebida na superfície de dobramento de luz secundária em uma segunda direção, e um conjunto de lentes que tem pelo menos uma lente estacionária posicionada entre a superfície de dobramento de luz secundária e o sensor de imagem, em que a pelo menos uma lente estacionária tem uma primeira superfície acoplada mecanicamente ao elemento óptico e uma segunda superfície acoplada mecanicamente ao sensor de imagem, e pelo menos uma lente móvel posicionada de modo que luz recebida pela superfície de dobramento secundária se propague através da pelo menos uma lente móvel. O sistema de imageamento pode incluir adicionalmente um atuador configurado para mover a pelo menos uma lente móvel para focar a propagação de luz através do conjunto de lentes para o sensor de imagem.
BREVE DESCRIÇÃO DOS DESENHOS
[0017] Os aspectos revelados serão descritos doravante no presente documento em conjunto com os desenhos anexos e anexos, fornecidos para ilustrar e não limitar os aspectos revelados, em que designações semelhantes denotam elementos semelhantes.
[0018] A Figura 1A ilustra uma vista lateral em corte transversal de uma modalidade de um conjunto de sensores ópticos dobrados que mostra um conjunto de sensores e um dispositivo foco automático associado.
[0019] A Figura 1B ilustra uma vista lateral em corte transversal de uma modalidade de um conjunto de sensores ópticos dobrados que mostra dois conjuntos de sensores e dispositivos de foco automático associados.
[0020] A Figura 1C ilustra uma vista de topo de uma modalidade dos componentes ópticos do conjunto de sensores da Figura 1B.
[0021] A Figura 1D ilustra uma vista lateral da modalidade dos componentes ópticos da Figura 1C.
[0022] A Figura 1E ilustra uma vista em corte transversal da modalidade dos componentes ópticos da Figura 1D.
[0023] A Figura 1F ilustra uma vista em corte transversal de um diafragma exemplificativo para a modalidade dos componentes ópticos da Figura 1C.
[0024] A Figura 1G ilustra uma vista em corte transversal de um diafragma exemplificativo para a modalidade dos componentes ópticos da Figura 1C.
[0025] A Figura 2 ilustra um diagrama de blocos de uma modalidade de um dispositivo de captura de imagem.
[0026] A Figura 3 ilustra uma modalidade de um processo de captura de imagem óptica dobrada com foco automático.
[0027] A Figura 4 ilustra uma vista em perspectiva de uma modalidade de um conjunto de sensores ópticos dobrados.
[0028] A Figura 5 ilustra uma vista em perspectiva de um sistema de imageamento que usa múltiplos conjuntos de sensores.
[0029] A Figura 6 ilustra uma modalidade dos campos projetados de vista da modalidade de matriz de óptica dobrada de sensor.
[0030] A Figura 7A ilustra uma modalidade de uma matriz de óptica dobrada de sensor que tem um conjunto de lentes posicionado em -30 μm e focado em uma distância de 6.767 mm.
[0031] A Figura 7B ilustra dados de desempenho de MTF simulada versus ângulo de campo para a óptica (por exemplo, conjunto de lentes e prisma de sensor) de uma modalidade de matriz de óptica dobrada de sensor da Figura 7A.
[0032] A Figura 7C ilustra MTF versus frequência espacial em ciclos por mm, em que múltiplas curvas de MTF são mostradas com relação aos ângulos de campo selecionados tanto para dados de desempenho sagitais e tangenciais para a modalidade de matriz de óptica dobrada de sensor da Figura 7A.
[0033] A Figura 7D ilustra uma modalidade de uma matriz de óptica dobrada de sensor que tem um conjunto de lentes posicionado em 0,0 μm e focado em uma distância de 1.000 mm.
[0034] A Figura 7E ilustra dados de desempenho de MTF simulada versus ângulo de campo para a óptica de uma modalidade de matriz de óptica dobrada de sensor da Figura 7D.
[0035] A Figura 7F ilustra MTF versus frequência espacial em ciclos por mm, em que múltiplas curvas de MTF são mostradas com relação aos ângulos de campo selecionados tanto para dados de desempenho sagitais e tangenciais para a modalidade de matriz de óptica dobrada de sensor da Figura 7D.
[0036] A Figura 7G ilustra uma modalidade de uma matriz de óptica dobrada de sensor que tem um conjunto de lentes posicionado em 142 μm e focado em uma distância de 200 mm.
[0037] A Figura 7H ilustra dados de desempenho de MTF simulada versus ângulo de campo para a óptica de uma modalidade de matriz de óptica dobrada de sensor da Figura 7G.
[0038] A Figura 7I ilustra MTF versus frequência espacial em ciclos por mm, em que múltiplas curvas de MTF são mostradas com relação aos ângulos de campo selecionados tanto para dados de desempenho sagitais e tangenciais para a modalidade de matriz de óptica dobrada de sensor da Figura 7G.
[0039] A Figura 7J ilustra uma modalidade de uma matriz de óptica dobrada de sensor que tem um conjunto de lentes posicionado em +35 μm e focado em uma distância de 500 mm.
[0040] A Figura 7K ilustra dados de desempenho de MTF versus ângulo de campo para a modalidade de matriz de óptica dobrada de sensor da Figura 7J.
[0041] A Figura 7L ilustra MTF versus frequência espacial em ciclos por mm, em que múltiplas curvas de MTF são mostradas com relação aos ângulos de campo selecionados tanto para dados de desempenho sagitais e tangenciais para a modalidade de matriz de óptica dobrada de sensor da Figura 7J.
[0042] A Figura 7M ilustra a iluminação relativa para as modalidades de matriz de óptica dobrada de sensor mostrada nas Figuras 7A, 7D, 7G e 7J.
[0043] As Figuras 8A a 8C ilustram uma modalidade em que um conjunto de sensores ópticos dobrados é movido para obter foco automático.
[0044] A Figura 9 ilustra um traço de raio de luz conforme passa através de uma modalidade de um conjunto de lentes for um sensor de imagem óptica dobrada.
[0045] A Figura 10A ilustra um exemplo de um padrão de PSF em um sensor de imagem.
[0046] As Figuras 10B a 10F ilustram critérios de desempenho de Rayleigh para resolução de imagem.
[0047] A Figura 11 ilustra dados de desempenho de limite de difração para uma câmera de matriz com um sistema óptico conforme descrito no presente documento.
[0048] A Figura 12 ilustra dados de desempenho de MTF para um único pixel.
[0049] AS Figuras 13A A 13E ilustram critérios de desempenho de MTF para uma modalidade de uma combinação de óptica e sensor.
DESCRIÇÃO DETALHADA INTRODUÇÃO
[0050] Modalidades dos sistemas e conjuntos de procedimentos de foco automático para sistemas de multicâmera de óptica dobrados, conforme descrito no presente documento, podem incluir um sistema de lente de duas partes e um conjunto de foco automático fornecidos para cada sensor de imagem no sistema de multicâmera. O sistema de multicâmera pode incluir uma superfície de dobramento de luz primária e uma secundária associada a cada um dentre uma pluralidade de sensores de imagem. A superfície de dobramento de luz primária pode ser um espelho refletivo ou prisma refrativo, pode ser montada em um substrato, e pode dividir a luz que chega a partir da cena de imagem de alvo em múltiplas porções correspondentes ao número de sensores de imagem no sistema de multicâmera. A superfície de dobramento de luz secundária pode ser um espelho refletivo ou prisma refrativo, e pode redirecionar a porção de luz a partir da superfície de dobramento de luz primária em direção ao sensor de imagem, por exemplo, em que o sensor de imagem é montado achatado no mesmo substrato ao qual a superfície de dobramento de luz primária é montada.
[0051] Um aspecto importante de tal modalidade é que, redirecionando-se a luz em direção a cada sensor na matriz com o uso de uma ou mais prismas ou superfícies refletivas, é possível posicionar todos os sensores de imagem em um substrato achatado comum. Em algumas modalidades todas as superfícies de sensor são formadas em um molde comum, em que o conjunto de circuitos pode ser compartilhado entre todos os sensores, possivelmente reduzindo a área de molde, exigências de potência e interfaces em e fora do molde.
[0052] Conforme declarado acima, o método tradicional de movimentação da lente para cima ou para baixo acima do sensor de imagem, por exemplo, ao longo do eixo geométrico óptico do sensor de imagem, pode não ser desejável devido ao fato de que o mesmo pode aumentar a altura de módulo de câmera e potencialmente criar outras características ou aspectos indesejáveis.
[0053] Outro problema potencial com foco automático em sistemas ópticos dobrados pode ser a necessidade de alcançar desempenho de resolução de função de transferência de modulação (MTF) alta ao longo do campo de vista total (FOV) da imagem projetada na superfície de sensor de imagem. O desempenho de MTF máximo de um conjunto de lentes é demarcado pelo limite de difração do conjunto de lentes, que é determinado pelo número f e pelos comprimentos de onda de luz que passa através do conjunto de lentes. O conjunto de lentes é feito de um ou mais elementos ópticos a partir da primeira superfície do conjunto de lentes à última superfície do conjunto de lentes que projeta a imagem em outra superfície, tal como uma superfície de sensor de imagem. Um elemento pode ser feito de uma ou mais superfícies ópticas que podem, por exemplo, refratar luz ou refletir luz.
[0054] Enquanto o desempenho de MTF atual de conjunto de lentes pode ser menor que o limite de difração ao longo da faixa completa de alturas de imagem usada, é desejável projetar a lente de modo que seja possível fabricar um agrupamento de amostras ou quantidade alta de conjuntos de lentes que estão muito próximos do limite de difração do conjunto de lentes ao longo do FOV completo do conjunto de lentes.
[0055] Visto que as exigências de desempenho de MTF de um conjunto de lentes aumentam em direção a seu desempenho máximo (por exemplo, o limite de difração), as mesmas podem colocar demandas quanto as tolerâncias dos mecanismos de foco automático mecânicos e/ou dos componentes ópticos do conjunto de lentes, incluindo outros aspectos do projeto de câmera. Exemplos de componentes ópticos ou outros aspectos de projeto de câmera que podem exigir tolerâncias mais rígidas são os mecanismos de foco automático, as superfícies de lente, materiais de lente, o alinhamento das superfícies de lente uma com relação a outra, e a fabricação combinada dos mecanismos de foco automático com o conjunto de lentes como uma unidade de operação única. Os mecanismos de foco automático mecânicos podem, por exemplo, criar erros de inclinação de lente (por exemplo, erros de rotação ao redor do eixo geométrico óptico) e/ou erros translacionais (por exemplo, erros de direção linear X, Y e Z ao redor do eixo geométrico óptico). Em um projeto destinado para a fabricação, em um faixa a partir de apenas algumas amostras a quantidades grandes, é, de modo geral, uma boa prática estabelecer limites para todas as variações-chave, tal como inclinação de lente e translação de lente, e, então, determinar um orçamento de tolerância para todas os componentes, elementos ou aspectos que podem criar essas variações, tal como inclinação ou translação de lente, e aqueles componentes, elementos ou aspectos que podem ser influenciados por tais variações. A influência normalmente é expressada na redução de MTF conforme uma ou mais variações-chave se alteram em quantidade. Após determinar o orçamento de tolerância para todos os componentes mecânicos e ópticos, elementos ou aspectos de projeto, tais componentes, elementos ou aspectos podem, então, ser projetados de modo que os mesmos permaneçam dentro das tolerâncias orçadas com um determinado nível de confidência estatística. O uso de tais práticas pode, por exemplo, aumentar o rendimento do produto finalizado final, tal como o módulo de foco automático de câmera única ou multicâmera completo. Visualizando-se esse sistema dessa forma, o conjunto de lentes pode ser projetado para ser menos sensível aos fatores causados pelas variações mencionadas anteriormente ou para contribuir menos com as variações mencionadas anteriormente.
[0056] Quando as descrições ou referências de mecanismos de foco automático ou outras descrições e referências semelhantes forem usadas no presente documento, tal referência pode incluir todos dentre ligações, componentes, elementos ou aspectos relacionados associados ou não associados ao processo de focar uma lente. Por exemplo, mecanismos de foco automático podem incluir uma ou mais motores, um ou mais atuadores, ligações, dispositivos, componentes, elementos ou aspectos que podem causar ou passar o movimento, em que esse movimento, por sua vez, moverá ou causará a ação de levar um sistema de lente para um determinado nível de foco. Outros fatores podem afetar o conjunto de lentes MTF sem o motor ou movimento do motor. O nível do foco pode ser expressado em diversas formas tal como em termos de MTF, Função de Dispersão de Pulso (PSF), ou por outras medições adequadas.
[0057] Embora discutido no presente documento primariamente no contexto do desempenho de MTF, esse se destina a propósitos ilustrativos, e o desempenho de lente pode ser expressado em outras modalidades por conceitos semelhantes tal como PSF, Função de Dispersão de Linha (LSF) ou outras formas diretas ou indiretas de expressar conceitos semelhantes.
[0058] As modalidades descritas no presente documento podem ser usadas para óptica dobrada, projetos de foco automático de resolução de MTF alta em que o projeto de conjunto de lentes e o projeto de estrutura mecânica de foco automático podem trabalhar juntos para reduzir as variações que podem levar a resolução de MTF a diminuir, e/ou reduzir a sensibilidade de MTF do conjunto de lentes, elementos, aspectos para os tipos e magnitude das variações que podem ocorrer. A faixa de variações possíveis que podem resultar na perde ou redução no desempenho de MTF podem surgir de fontes secundárias, fontes terciárias ou semelhantes, que são afetados pelas variações possíveis mencionadas anteriormente, ou outras variações e, por sua vez, influenciam ou reduzem o desempenho de MTF.
[0059] Um exemplo de um processo para projetar um sistema óptico dobrado é iniciar com a densidade de pixel de sensor de imagem. A lente precisará atuar como um filtro antissuavização no domínio óptico. Se a densidade de pixel de sensor de imagem não for considerada no início do processo de projeto de lente, então, o projeto de lente resultante pode filtrar o conteúdo de frequência de cena em ciclos por mm no plano de foco, que são abaixo a taxa de amostra Nyquist do sensor de imagem. Ou alternativamente, o projeto de lente resultante pode permitir que muito conteúdo acima de frequência de cena de Nyquist (em ciclos por mm) passe, em que no caso a imagem pode ter artefatos de suavização observáveis. Em algumas modalidades, o sistema de lente deve reduzir a MTF para 20% (ou ligeiramente menos) na taxa de amostra de Nyquist. O limite de difração pode, então, ser usado como um ponto de partida para o projeto de lente, em que o número f pode ser determinado como em conformidade com a regra de 20 % ou ligeiramente menor. Uma vez que o número f seja determinado, então, uma quantidade para aumentar a limite de difração pode ser estimada de modo que o projeto de conjunto de lentes final tenha MTF em 20% ou menor na taxa Nyquist. Por exemplo, se a MTF de lente for 10% ou menor que o limite de difração em ou próxima da taxa de amostra de Nyquist, então, o número f poderia, potencialmente, ser diminuído para ajudar a alcançar a regra de 20% > ou ligeiramente menor.
[0060] Quanto mais o limite de difração for aumentado, mais ampla a passagem livre deverá ser, contanto que o comprimento focal eficaz permaneça aproximadamente constante. Conforme a passagem livre aumenta a altura do conjunto de lentes pode aumentar. A fim de manter a óptica dobrada o mais fina possível, é importante, consequentemente, projetar o conjunto de lentes de modo que o desempenho de MTF seja o mais próximo possível do limite de difração. De outro modo, pode não ser possível estar em conformidade com as exigências de altura de módulo, ou finura, para o módulo de foco automático de câmera única ou multicâmera inteiro. Aqueles versados na técnica reconhecerão que o número f é igual ao comprimento focal eficaz dividido pela passagem livre do sistema de imageamento, tal como um sistema ou conjunto de lentes de câmera.
[0061] Para as modalidades apresentadas no presente documento, os conjuntos de lentes foram projetados para permanecerem o mais próximo possível do limite de difração ao longo de todas as frequências espaciais, em ciclos por mm, até a taxa de amostra de Nyquist e todas as frequências mais superiores, em ciclos por mm, para fora do ponto de fuga de limite de difração. Além disso, o desempenho de MTF foi projetado para permanecer o mais próximo possível do limite de difração ao longo do FOV completo do conjunto de lentes, e em todas as distâncias de foco a partir do infinito para uma distância próxima de 200 mm.
[0062] As modalidades apresentadas no presente documento, como exemplos, têm como base o uso de uma matriz de pixel quadrática de sensor de imageamento em quer a densidade de pixel é 1,1 μm e o fator de preenchimento de pixel é 100%. As modalidades descritas no presente documento, portanto, têm como base a taxa de amostra de Nyquist de 454 ciclos por mm. Uma pessoa de habilidade comum na técnica sobre teoria de amostragem reconhecerá que a amplitude de passagem quadrática, tal como 1,1 μm, pode introduzir retirada de MTF de amostragem. Essa retirada de MTF de amostragem pode ser calculada. O limite de difração pode ser aumentado adicionalmente para compensar pela retirada de MTF de amostragem de modo que na taxa de amostra de Nyquist a retirada de lente de MTF mais a retirada de MTF de amostragem produza uma 20% de MTF de rede completamente; ou algum outro nível de MTF ligeiramente menor, conforme pode ser o caso.
[0063] Também deve-se reconhecer que as modalidades apresentadas no presente documento não são limitadas a qualquer tamanho, formato, densidade, matriz retangular, matriz não retangular ou disposição de pixel, em que o tamanho ou o formato de pixel podem ser diferentes um do outro na superfície do sensor de imagem. As modalidades se destinam a indicar os fatores ou aspectos que podem ser usados para projetar tal sistema e os benefícios, atributos e reivindicações do sistema são descritos no presente documento. As modalidades não se limitam ao tamanho de pixel ou outros fatores abrangidos quando se descreve ou refere a tais modalidades.
[0064] As modalidades apresentadas no presente documento podem ser implantadas com o uso de um prisma refrativo de sensor ou um espelho refletivo sobre o sensor. O prisma refrativo de sensor pode usar propriedades de reflexão interna totais para refletir luz em direção à superfície de sensor ou uma superfície refletiva no elemento óptico conformado de prisma refrativo.
[0065] Para as modalidades apresentadas no presente documento, a superfície refletiva de prisma de sensor e também a superfície de espelho de sensor pode ter a maior sensibilidade para variações de rotação e translacionais. Essas variações podem surgir da operação dos mecanismos de foco automático, o motor, e as interações do motor com outros componentes, elementos ou aspectos ópticos e/ou mecânicos, bem como outras condições ambientais tais como movimento, temperatura e choque. As variações de rotação e translacionais podem surgir a partir de outras fontes relacionadas ou não relacionadas. Outros aspectos também podem ter um impacto sobre o desempenho de MTF.
[0066] As modalidades descritas no presente documento utilizam métodos destinados a reduzir as variações mencionadas anteriormente.
[0067] Em alguns exemplos, o sistema de lente de duas partes pode incluir uma porção móvel posicionada entre as superfícies de dobramento de luz primária e secundária da trajetória óptica dobrada de um sensor de imagem. A porção móvel do conjunto de lentes pode se mover lateralmente (por exemplo, em uma direção paralela ao plano formado pelo sensor de imagem) entre as superfícies de dobramento de luz primária e secundária para alterar a profundidade focal de uma imagem capturada pelo sensor. A porção móvel pode incluir um número de lentes selecionadas para produzir o comprimento focal e a resolução desejados. O sistema de lente de duas partes também pode incluir uma porção estacionária, por exemplo, uma lente corretora de campo posicionada próxima ao sensor. Em algumas modalidades, a lente corretora de campo pode ser afixada (por exemplo, colocada ou mantida mecanicamente no local) a uma placa de cobertura de vidro posicionada sobre o sensor.
[0068] Em algumas modalidades, o conjunto de foco automático usado para mover a porção móvel do sistema de lente pode incluir um atuador e um trilho-guia ou outro dispositivo de orientação. O atuador pode ser um motor de bobina de voz (VCM), sistema mecânico microeletrônico (MEMS), motor piezoelétrico ou uma liga de memória de formato (SMA). O atuador pode ser acoplado ao substrato no lado oposto da superfície de dobramento de luz secundária a partir da porção móvel do conjunto de lentes, e pode ser acoplado à porção móvel pelo trilho-guia. O trilho-guia pode transladar o movimento de atuador para a porção móvel, e em algumas modalidades, pode engatar (por exemplo, engatar de modo deslizável) uma superfície da superfície de dobramento de luz secundária a fim de delimitar a inclinação (por exemplo, rolamento, passo, guinada e movimento de rotação) e movimentos de translação lateral da porção móvel dentro das tolerâncias do projeto de lente.
[0069] Diversas modalidades serão descritas abaixo em conjunto com os desenhos para propósitos ilustrativos. Deve-se observar que diversas outras implantações dos conceitos revelados são possíveis, e diversas vantagens podem ser alcançadas com as implantações reveladas.
VISÃO GERAL DO CONJUNTO DE FOCO AUTOMÁTICO
[0070] Referindo-se agora às Figuras 1A e 1B, um exemplo de uma modalidade de um sistema de foco automático para um conjunto de multissensores ópticos dobrados 100A, 100B será descrita agora em maiores detalhes. A Figura 1A ilustra uma vista lateral em corte transversal de uma modalidade de um conjunto de sensores ópticos dobrados com capacidade para foco automático 100A que mostra um conjunto de sensores e um dispositivo foco automático associado. A Figura 1B ilustra uma vista lateral em corte transversal de uma modalidade de um conjunto de sensores ópticos dobrados com capacidade para foco automático 100B que mostra dois conjuntos de sensores e dispositivos de foco automático associados.
[0071] Conforme mostrado no exemplo da Figura 1A, um sensor de imagem 125 é posicionado em um substrato 150. O substrato 150 é adjacente, em uma borda mostrada no corte transversal, a um elemento óptico configurado para redirecionar a luz que chega, e isso inclui uma superfície de dobramento de luz primária 124. Conforme ilustrado, a superfície de dobramento de luz primária 124 é parte de um prisma refrativo 145. Conforme ilustrado, o sensor 125 é montado dentro uma fenda retangular 117 formada na placa de circuito impressa 195. Batentes de pino 107 são conectados à, por exemplo, uma parte do sensor 125 e são usados para entrar em contato com plataformas eletricamente condutivos na placa de circuito impressa 195. A placa de circuito impressa 195 pode ser montada no substrato 150 e permanecer estacionária em relação ao substrato 150. O mesmo é apenas um exemplo de como o sensor 125 pode ser montado ao substrato 150 e realizar o contato elétrico com uma placa de circuito impressa semelhante 195. Em algumas modalidades, o sensor 125 pode ser afixado ao substrato 150 com o uso de um adesivo. Em algumas modalidades, sensor 125 pode ser formado como parte do substrato 150, por exemplo, o substrato 150 pode ser um molde de silício ou outro material semicondutor adequado para formar o sensor 125 em uma porção do mesmo. Conforme ilustrado, o sensor 125 é coberto pelo vidro de cobertura 126, e lente L6 é posicionado no outro lado do vidro de cobertura 126 a partir do sensor 125. Em alguns exemplos, o vidro de cobertura 126 inclui dois ou mais componentes acoplados entre si. Em alguns exemplos, o vidro de cobertura 126 é acoplado ao sensor 125 durante a fabricação a fim de impedir a contaminação de uma superfície de recebimento de luz do sensor. No entanto, em algumas modalidades, o vidro de cobertura 126 pode ser omitido e a lente L6 pode ser acoplada diretamente ao sensor 125.
[0072] A lente L6 pode ser uma lente corretora de campo. Em algumas modalidades, a lente L6 é um componente estacionário do sistema de lente L1 a L6. Em algumas modalidades, a lente L6 pode incluir múltiplos elementos de lente que forma um grupo de lentes, que é estacionário (um “grupo de lentes estacionário”), isto é, não se move para realizar uma operação de foco automático. L6 pode ser uma lente ou múltiplas lentes que forma o grupo de lentes estacionário, em que cada lente é conectada uma a outra como um grupo ou pilha de lentes. A superfície de dobramento de luz secundária 135 se estende na direção oposta a partir da lente L6, e, conforme ilustrado, é formado como um prisma refrativo 136A acoplado a um bloco de suporte 136B na superfície de dobramento de luz secundária 135. É possível que uma superfície de espelho seja colocada entre 136A e 136B em vez de usar as características refletivas internas de um prisma para redirecionar a luz.
[0073] Uma porção móvel 130 do sistema de lente que inclui as lentes L1, L2, L3, L4 e L5 é posicionada entre a superfície de dobramento de luz primária 124 e a superfície de dobramento de luz secundária 135. O eixo geométrico óptico 123 mostra um exemplo de uma trajetória que luz poderia seguir conforme a mesma entra na câmera de matriz 100A, é redirecionada para fora da superfície de dobramento de luz primária 124, passa através da porção móvel 130 do sistema de lente, é redirecionada para fora da superfície de dobramento de luz secundária 135, passa através da lente L6 e do vidro de cobertura 126,e é incidida sobre o sensor 125. A porção móvel 130 pode se mover lateralmente (por exemplo, ao longo do eixo geométrico óptico 123 que se estende a partir da superfície de dobramento de luz primária 124 e da superfície de dobramento de luz secundária 135 e em uma direção substancialmente paralela ao plano formado pelo sensor 125) entre uma borda de demarcação 141 do prisma refrativo 145 que forma a superfície de dobramento de luz primária 124 e uma borda de demarcação 131 do prisma refrativo 136A que forma a superfície de dobramento de luz secundária 135 a fim de alterar a distância de foco no espaço de objeto. A lente L6 pode ser posicionada em um plano paralelo a, ou substancialmente paralelo a, um eixo geométrico óptico da porção móvel 130.
[0074] Em algumas modalidades, o sensor 125, o vidro de cobertura 126, a lente L6 e a unidade que incluem o prisma refrativo 136A e/ou bloco 136B (chamado no presente documento de “elemento óptico”) podem ser aderidos ou, de outro modo, afixados na configuração ilustrada de modo que esses componentes sejam fixados um em relação ao outro dentro da câmera. Em algumas modalidades, esses componentes podem ser fixados de modo permanente, ou semipermanente, entre si de modo que suas posições com relação uns aos outros permaneçam a mesma, o que estabiliza a trajetória de luz óptica através dos elementos. Em algumas modalidades, conforme discutido acima, o vidro de cobertura 126 pode ser omitido e o sensor restante 125, a lente L6 e o prisma refrativo 136A e/ou o bloco 136B podem ser aderidos ou, de outro modo, afixados um ao outro com a lente L6 posicionada entre o sensor 125 e o prisma refrativo 136A e/ou bloco 136B. Por exemplo, a lente L6 pode ser disposta fisicamente entre uma porção de sensor 125 e o prisma refrativo 136A e/ou bloco 136B. Também, por exemplo, a lente L6 pode ser disposta na trajetória óptica de propagação de luz a partir do bloco 136B ao sensor 125. Conforme ilustrado, o elemento óptico compreende uma superfície de entrada (borda de demarcação 131) para receber a luz passada a partir da superfície de dobramento de luz primária 124 através da porção móvel do conjunto de lentes 130, da superfície de dobramento de luz secundária 135, uma superfície de saída (adjacente à lente L6), e de uma superfície-guia 186.
[0075] Conforme usado no presente documento, o termo “câmera” se refere a um sensor de imagem, um sistema de lente e um número de superfícies de dobramento (ou reflexão) de luz correspondentes, por exemplo, a superfície de dobramento de luz primária 124, conjunto de lentes móveis 130, superfície de dobramento de luz secundária 135, lente estacionária L6 e sensor 125, conforme ilustrado na Figura 1A. A matriz de multissensor óptico dobrado pode incluir uma pluralidade de tais câmeras em diversas configurações. Por exemplo, as modalidades das configurações de câmera de matriz são reveladas na Publicação de Pedido de Patente n° U.S. 2014/0111650, depositado em 15 de março de 2013 e intitulado “MULTICAMERA SYSTEM USING FOLDED OPTICS”, em que a revelação é incorporada ao presente documento a título de referência. Outras configurações de câmera de matriz que se beneficiariam dos sistemas e métodos de foco automático descritos no presente documento são possíveis.
[0076] O atuador 180 pode ser usado para mover lateralmente a porção móvel 130. O atuador 180 pode ser um VCM, MEMS, motor piezoelétrico ou SMA. O atuador 180 pode ser acoplado à porção móvel 130 pelo trilho-guia 185 que se estende ao longo de uma borda inferior 186 do prisma refrativo 136A e/ou bloco 136B. O trilho-guia 185 pode transladar o movimento a partir do atuador 180 à porção móvel 130. O trilho-guia 185 pode engatar de modo deslizável borda inferior 186 (ou outra superfície dentro da câmera, por exemplo, outra superfície do prisma refrativo 136A e/ou bloco 136B, uma superfície adjacente de um alojamento de câmera, uma superfície inferior do prisma refrativo central, uma plataforma ou bloco acoplado ao elemento óptico, e semelhantes) a fim de delimitar a inclinação, rolamento, passo, guinada e movimentos lineares translacionais da porção móvel 130 (isto é, movimento na direção oposta ao ou ao redor do eixo geométrico óptico da porção móvel 130) dentro das tolerâncias do projeto de lente (por exemplo, enquanto ainda fornece imagem de uma qualidade desejada). Embora apenas um trilho-guia 185 seja ilustrado, alguns exemplos podem incluir um número de trilhos-guia 185 conforme necessário para delimitar o movimento da porção móvel 130 do conjunto de lentes. O atrito entre o trilho-guia 185 e a borda inferior 186, bem como qualquer atrito entre o sistema de lente móvel 130 e componentes circundantes, pode ser reduzido através de quaisquer meios adequados, por exemplo, rolamentos de esfera, líquidos ou sólidos de lubrificação, campos magnéticos, ou uma combinação dos mesmos. Em algumas modalidades, bobinas magnéticas enroladas em torno da porção móvel 130 e/ou do atuador 180 podem minimizar adicionalmente o movimento indesejado nas direções de inclinação, de rolamento, de passo, de guinada e lineares translacionais.
[0077] Embora o trilho-guia 185 seja discutido primariamente no presente documento como engatado de modo deslizável à borda inferior 186 de um prisma 136A e/ou bloco 136B que forma a superfície de dobramento de luz secundária 135, o trilho-guia 185 pode engatar de modo deslizável outras superfícies em outras modalidades. Por exemplo, uma extremidade do trilho-guia pode se estender além da porção móvel do sistema de lente e engatar de modo deslizável a superfície inferior do prisma 145 que forma a superfície de dobramento de luz primária 124. Em algumas modalidades, a câmera pode incluir uma ou mais superficies de dobramento de luz como espelhos refletivos. Em tais modalidades, o trilho-guia pode entrar em contato com uma borda de um ou mais blocos dentre os blocos de espelhos e/ou de montagem para os espelhos a fim de delimitar o movimento rotacional ou translacional indesejado ao redor do eixo geométrico óptico da porção móvel do conjunto de lentes.
[0078] Embora seja discutido primariamente dentro do contexto de sistemas de matriz de óptica dobrada de multicâmera, conforme descrito no presente documento, o conjunto de foco automático pode ser usado em qualquer sistema de óptica dobrada com um ou mais conjuntos de sensores de imagem ou de lentes ópticas dobradas.
[0079] Conforme mostrado na Figura 1B, um conjunto de sensores 100B inclui um par de sensores de imagem 105, 125 cada um montado no substrato 150, conjuntos de lentes móvel 115, 130 correspondentes aos sensores de imagem 105, 125, respectivamente, e lentes estacionárias L6 posicionadas sobre os vidros de cobertura 106, 126 de sensores de imagem 105, 125, respectivamente (isto é, os vidros de cobertura 106, 126 são posicionados entre as lentes estacionárias L6 e os sensores de imagem 105, 125). Cada conjunto de lentes móveis 115, 130 é acoplado a um trilho-guia 184, 185, que, por sua vez, é acoplado a um atuador 181, 180. A superfície de dobramento de luz primária 122 do prisma refrativo 140 direciona uma porção de luz a partir da cena de imagem de alvo ao longo do eixo geométrico óptico 121 através da porção móvel 115 do sistema de lente, é redirecionada para fora da superfície de dobramento de luz secundária 110, passa através da lente L6 e do vidro de cobertura 106, e é incidida sobre o sensor 105. A superfície de dobramento de luz primária 124 do prisma refrativo 145 direciona uma porção de luz a partir da cena de imagem de alvo ao longo do eixo geométrico óptico 123 através da porção móvel 130 do sistema de lente, a luz é redirecionada para fora da superfície de dobramento de luz secundária 135, passa através da lente L6 e do vidro de cobertura 126, e é incidida sobre o sensor 125.
[0080] Os sensores de imagem 105, 125 podem compreende, em determinadas modalidades, um dispositivo de carga acoplada (CCD), sensor semicondutor de óxido metálico complementar (CMOS), ou qualquer outro dispositivo de captação de imagem que recebe luz e gera dados de imagem em resposta à imagem recebida. Sensores de imagem 105, 125 podem ter a capacidade para obter dados de imagem de fotografias paradas e também podem fornecer informações com relação ao movimento em um fluxo de vídeo capturado. Os sensores 105 e 125 podem ser sensores individuais ou podem representar matrizes de sensores, tal como uma matriz 3x1. Qualquer matriz adequada de sensores pode ser usada nas implantações reveladas.
[0081] Os sensores 105, 125 podem ser montados no substrato 150 conforme mostrado na Figura 1B, por exemplo, em um plano que é paralelo (ou quase) ao movimento do conjunto de lentes 115, 130 e o eixo geométrico óptico do conjunto de lentes 130. Em algumas modalidades, todos os sensores podem estar em um plano ao serem montados no substrato achatado 150. Por exemplo, em diversas modalidades, dois, três, quatro, cinco, seis, sete ou oito, ou mais, sensores podem ser dispostos em um plano e montados em ou acoplados ao substrato 150. O substrato 150 pode ser qualquer material substancialmente achatado adequado. O substrato 150 pode incluir uma abertura para permitir que luz que chega passe através do substrato 150 para as superfícies de dobramento de luz primárias 122, 124. São possíveis múltiplas configurações para montar uma matriz ou matrizes de sensor, bem como os outros componentes de câmera ilustrados, ao substrato 150.
[0082] As superfícies de dobramento de luz primárias 122, 124 podem ser superfícies de prisma, conforme ilustrado, ou podem ser um espelho ou uma pluralidade de espelhos, e podem ser achatadas ou conformadas conforme necessário para redirecionar adequadamente a luz que chega para os sensores de imagem 105, 125. Em algumas modalidades, as superfícies de dobramento de luz primárias 122, 124 podem ser formadas como um espelho central, pirâmide ou prisma, ou outros formatos que empregam seções ou facetas separadas para separar as porções da cena de imagem no campo de objeto independente da sobreposição ou não. O espelho central, pirâmide, prisma, ou outra superfície refletiva pode dividir a luz que representa a imagem-alvo em múltiplas porções e direcionar cada porção em um sensor diferente. Por exemplo, uma superfície de dobramento de luz primária 122 pode enviar uma porção da luz que corresponde a um primeiro campo de vista em direção ao sensor do lado esquerdo 105 enquanto a superfície de dobramento de luz primária 124 envia uma segunda porção da luz que corresponde a um segundo campo de vista em direção ao sensor do lado direito 125. Em algumas modalidades nas quais os sensores de recebimento são, cada um, uma matriz de uma pluralidade de sensores, as superfícies de dobramento de luz podem ser feitas de múltiplas superfícies refletivas anguladas em relação umas às outras a fim de enviar uma porção diferente da cena de imagem de alvo em direção a cada um dentre os sensores. Deve-se entender que juntos os campos de vista das câmeras abrangem pelo menos a imagem-alvo. Os campos de vista podem ser alinhados e costurados juntos após a captura para formar uma imagem final, por exemplo, conforme descrito adicionalmente abaixo com referência ao módulo de costura de imagem 240 e a um processador ilustrado na Figura 2.
[0083] As superfícies de dobramento de luz podem ser achatadas ou curvadas em diversas modalidades. Uma superfície de dobramento de luz pode ter uma curvatura que é parte do sistema óptico, em que a mesma altera a trajetória da luz de uma maneira diferente daquela de uma superfície achatada. Por exemplo, tal superfície curvada pode ser parte do projeto óptico de lente geral, em que sem usar tal superfície curvada, o desempenho do projeto de lente e/ou a capacidade para focar não seriam alcançados. A superfície de dobramento de luz também pode ter outros materiais ou elementos ópticos que altera a luz na trajetória óptica. Os outros elementos ópticos podem incluir, porém, sem limitação, Elementos Ópticos Difrativos (DOE), revestimentos, elementos de polarização, etc.
[0084] Cada sensor na matriz (e cada câmera) pode ter um campo de vista substancialmente diferente, e em algumas modalidades os campos de vista podem se sobrepor. Determinadas modalidades das superfícies de dobramento de luz podem ter superfícies não planares complicadas para aumentar os graus de liberdade quando se projeta o sistema de lente.
[0085] Após se refletida para fora das superfícies de dobramento de luz primárias 122, 124, a luz pode ser passada através de sistemas de lente móvel 115, 130 fornecidos entre as superfícies de dobramento de luz primárias 122, 124 e superfícies refletivas 110, 135. Os sistemas de lente móvel 115, 130 podem ser usados para focar a porção da imagem-alvo que é direcionada para cada sensor. O conjunto de foco automático para os sistemas de lente móvel 115, 130 pode incluir um atuador para mover a lente entre uma pluralidade de posições de lente diferentes. O atuador pode ser um motor de bobina de voz (VCM), sistema mecânico microeletrônico (MEMS) ou uma liga de memória de formato (SMA). O conjunto de foco automático pode incluir adicionalmente um acionador de lente para controlar o atuador. Conforme retratado, o sensor 105 pode ser posicionado acima da superfície de dobramento de luz 110 e o sensor 125 pode ser posicionado acima da superfície de dobramento de luz 135 (em que a direção “acima” se refere à orientação da modalidade ilustrada na Figura 1B). No entanto, em outras modalidades, os sensores podem estar abaixo das superfícies refletidas secundárias. Conforme usado aqui, uma abertura no alojamento de câmera através da qual a luz que representa a cena de imagem de alvo entra é considerada como o “topo” e, consequentemente, um sensor colocado “abaixo” de uma superfície refletiva secundária estaria sobre uma superfície do alojamento de câmera oposto à abertura. No entanto, durante o uso o alojamento de câmera pode ser posicionado em qualquer orientação com base, por exemplo, na relação da câmera a uma cena de interesse para captura de imagem. Outras configurações adequadas das superfícies de dobramento de luz e dos sensores são possíveis nas quais a luz de cada conjunto de lentes é redirecionada em direção aos sensores.
[0086] Cada campo de vista do sensor pode ser projetado para o espaço de objeto, e cada sensor pode capturar uma imagem parcial que compreende uma porção da cena-alvo de acordo com tal campo de vista do sensor. Em algumas modalidades, os campos de vista para as matrizes de sensor opostas 105, 125 podem ser sobrepostos por uma determinada quantidade. Para formar uma única imagem, um processo de costura, conforme descrito abaixo, pode ser usado para combinar as imagens a partir dos dois sensores opostos 105, 125. Determinadas modalidades do processo de costura podem empregar a sobreposição para identificar recursos comuns na costura das imagens parciais entre si. Após a costura das imagens de sobreposição entre si, a imagem costurada pode ser recortada por uma razão de aspecto desejada, por exemplo 4:3 ou 1:1, para formar a imagem final.
[0087] Conforme ilustrado pelas Figuras 1A e 1B, cada câmera tem uma altura total H. Em algumas modalidades, a altura total H pode ser de aproximadamente 4,5 mm ou menor. Em outras modalidades, a altura total H pode ser de aproximadamente 4,0 mm ou menor. Consequentemente, uma altura dos sistemas de lente móvel 115, 130 também não excede a altura H. Em outras implantações, a altura pode ser maior que 4,5 mm.
[0088] As Figuras 1C a 1G ilustram diversas vistas de uma modalidade dos componentes ópticos (que incluem lentes L1 a L6, sensor 125, vidro de cobertura 126, prisma 136A e bloco 136B) do conjunto de sensores da Figura 1B juntos com dados de dimensão, com valores de dimensão para os componentes fornecidos em micrômetros (algumas dimensões são etiquetadas com μm para indicar micrômetros, outras não são etiquetadas com símbolos “μm” devido às limitações de espaço na Figura). A Figura 1C ilustra uma vista em plano de topo de uma modalidade dos componentes ópticos do conjunto de sensores da Figura 1B. A Figura 1D ilustra uma vista lateral da modalidade dos componentes ópticos da Figura 1C. A Figura 1E ilustra uma vista em corte transversal da modalidade dos componentes ópticos da Figura 1C ao longo da corte transversal A-A observado na Figura 1C. A Figura 1F ilustra uma vista em corte transversal de um diafragma exemplificativo para a modalidade dos componentes ópticos da Figura 1C ao longo do corte transversal B-B observado na Figura 1D. A Figura 1G ilustra um exemplo de uma modalidade de uma vista em corte transversal de um diafragma para a modalidade dos componentes ópticos da Figura 1C ao longo do corte transversal C-C observado na Figura 1D. Na modalidade ilustrada na Figura G, o raio pode ser 803,4 μm. As dimensões mostradas nas Figuras 1C a 1G são fornecidas para ilustrar uma definição possível de parâmetros de projeto para os componentes ópticos. Deve-se observar que outros parâmetros de projeto podem ser adequados em outras implantações. Com o uso dos parâmetros ilustrados ou outras variações, uma pessoa de habilidade comum na técnica observará que uma variedade de materiais conhecidos pode ser usada para criar as lentes com base nos fatores de projeto tais como despesas, qualidade e semelhantes.
[0089] Com o uso dos parâmetros ilustrados ou das outras variações, uma pessoa de habilidade comum na técnica observará que pode haver mais ou menos superfícies de lente e/ou lente que o mostrado para as lentes L1, L2, L3, L4, L5 e L6. Por exemplo, L6 é mostrada na Figura 1A como a uma lente que tem uma superfície de lente no lado mais próximo do sensor 125. Em vez disso, L6 pode ter duas superfícies de lente, em que há uma superfície de lente mais próxima da superfície 135, conforme mostrado na Figura 1A, e uma superfície de lente mais próxima do sensor 125, conforme mostrado na Figura 1A. As superfícies de L6 ou qualquer uma dentre as lentes usadas no sistema de câmera podem ser compostas por ter superfícies de lente complexas tais como superfícies asféricas ou formatos não esféricos, em que não esférico significa que o formato não é simétrico ao redor do eixo geométrico óptico do sistema de câmera e ou qualquer um dentre os componentes ópticos no sistema de câmera. Adicionalmente, L6 pode compreender mais que uma lente que forma uma pilha de lente de lentes. Por exemplo, L6 pode compreender duas ou mais lentes que formam uma pilha de lente, em que cada lente tem pelo menos uma superfície de lente. Ademais, L6 pode ter uma lente mais próxima da superfície 135, conforme mostrado na Figura 1A e outra lente mais próxima do sensor 125, conforme mostrado na Figura 1A, que forma uma pilha de lentes feita de duas ou mais lentes; em que pode haver uma ou mais superfícies de lente entre duas ou mais lentes na pilha de lentes de L6.
VISÃO GERAL DE SISTEMA DE CAPTURA DE IMAGEM EXEMPLIFICATIVO
[0090] A Figura 2 retrata um diagrama de blocos de alto nível de uma modalidade possível de um dispositivo 200 que tem um agrupamento de componentes que inclui um processador de imagem 220 ligados a uma pluralidade de câmeras 215a a 215n. O processador de imagem 220 também está em comunicação com uma memória de trabalho 205, memória 230, e processador de dispositivo 250, que, por sua vez, está em comunicação com o módulo de armazenamento eletrônico 210 e um visor eletrônico 225. Em algumas modalidades, um único processador pode ser usado em vez de dois processadores separados, conforme ilustrado na Figura 2. Algumas modalidades podem incluir três ou mais processadores.
[0091] O dispositivo 200 pode ser, ou pode ser parte, um telefone celular, câmera digital, computador do tipo tablet, assistente digital pessoal ou semelhantes. Há diversos dispositivos de computação portáteis nos quais um sistema de imageamento de espessura reduzida tal como é descrito no presente documento forneceria vantagens. O dispositivo 200 também pode ser um dispositivo de computação estacionário ou qualquer dispositivo no qual um sistema de imageamento fino seria vantajoso. Uma pluralidade de aplicações pode estar disponível para o usuário no dispositivo 200. Essas aplicações podem incluir aplicações de fotografia e vídeo tradicionais, imageamento de faixa dinâmica alta, foto e vídeo panorâmicos, ou imageamento estereoscópico tal como imagens em 3D ou vídeo em 3D.
[0092] O dispositivo de captura de imagem 200 inclui as câmeras 215a a 215n para capturar imagens externas. Conforme descrito acima, cada câmera pode incluir um sensor, um sistema de lente, um conjunto de foco automático e superfícies de dobramento de luz. As câmeras 215a a 215n podem, cada uma, incluir um sensor, um conjunto de lentes e uma superfície refletiva ou refrativa primária e secundária para redirecionar uma porção de uma imagem- alvo para cada sensor, conforme discutido acima com relação à Figura 1A. Em general, câmeras N 215a a 215n podem ser usadas, em que N > 2. Desse modo, a imagem-alvo pode ser dividida em porções N nas quais cada sensor dos N conjuntos de sensores captura uma porção da imagem-alvo de acordo com tal campo de vista do sensor. No entanto, algumas modalidades podem empregar apenas um conjunto de sensores de imagem, e deve ser entendido que as câmeras 215a a 215n podem compreender qualquer número de conjuntos de sensores de imagem adequados para uma implantação do dispositivo de imageamento óptico dobrado descrito no presente documento. O número de câmeras pode ser aumentado para alcançar alturas z inferiores do sistema, conforme discutido em maiores detalhes abaixo com relação à Figura 4, ou para estar em conformidade com as necessidades de outros propósitos tal como ter campos de vista de sobreposição semelhantes àquele de uma câmera plenóptica, que pode permitir a habilidade para ajustar o foco da imagem após o pós-processamento. Outras modalidades podem ter uma configuração de sobreposição de campo de vista adequada para câmeras de faixa dinâmica alta que permitem a habilidade para capturar duas imagens simultâneas e, então, mesclar as mesmas entre si. As câmeras 215a a 215n podem ser acopladas ao processador de câmera 220 para transmitir a imagem capturada para o processador de imagem 220.
[0093] O processador de imagem 220 pode ser configurado para realizar diversas operações de processamento em dados de imagem recebidos que compreendem porções N da imagem-alvo a fim de emitir uma imagem costurada de alta qualidade, conforme será descrito em maiores detalhes abaixo. O processador 220 pode ser uma unidade de processamento de propósito geral ou um processador especialmente projetado para aplicações de imageamento. Exemplos de operações de processamento de imagem incluem recorte, escalonamento (por exemplo, para uma resolução diferente), costura de imagem, conversão de formato de imagem, interpolação de cor, processamento de cor, filtragem de imagem (por exemplo, filtragem de imagem espacial), artefato de lente ou correção de defeito, retirada de luz de lente ou redução de nível de luz causada por vinheta, e semelhantes. O processador 220 pode, em algumas modalidades, compreender uma pluralidade de processadores. Determinadas modalidades podem ter um processador dedicado para cada sensor de imagem. O processador de imagem 220 pode ser uma ou mais processadores de sinal de imagem dedicados (ISPs) ou uma implantação de software de um processador.
[0094] Conforme mostrado, o processador de imagem 220 é conectado a uma memória 230 e a uma memória de trabalho 205. Na modalidade ilustrada, a memória 230 armazena módulo de controle de captura 235, módulo de costura de imagem 240, sistema operacional 245, e módulo de foco automático 255. Esses módulos incluem instruções que configuram o processador de imagem 220 do dispositivo 200 para realizar diversas tarefas de processamento de imagem e gerenciamento de dispositivo. A memória de trabalho 205 pode ser usada pelo processador de imagem 220 para armazenar um agrupamento de trabalhos de instruções de processador contidas nos módulos de memória 230. Alternativamente, a memória de trabalho 205 também pode ser usada pelo processador de imagem 220 para armazenar dados dinâmicos criados durante a operação do dispositivo 200.
[0095] Conforme mencionado acima, o processador de imagem 220 pode ser configurado por diversos módulos armazenados na memória 230. O módulo de controle de captura 235 pode incluir instruções que controlam as funções de captura de imagem gerais do dispositivo 200. Por exemplo, o módulo de controle de captura 235 pode incluir instruções que exige as sub-rotinas para configurar o processador de imagem 220 para capturar dados brutos de imagem de uma cena de imagem de alvo com o uso das câmeras 215a a 215n. O módulo de controle de captura 235 pode, então, exigir o módulo de costura de imagem 240 para realizar um conjunto de procedimentos de costura nas imagens parciais N capturadas pelas câmeras 215a a 215n e emitir uma imagem-alvo costurada e recortada para o processador de imageamento 220. O módulo de controle de captura 235 também pode exigir o módulo de costura de imagem 240 para realizar uma operação de costura em dados brutos de imagem a fim de emitir uma imagem de pré- visualização de uma cena a ser capturada, e para atualizar a imagem de pré-visualização em determinados intervalos de tempo ou quando a cena nos dados brutos de imagem se altera.
[0096] O módulo de costura de imagem 240 pode compreender instruções que configura o processador de imagem 220 para realizar os conjuntos de procedimentos de costura, recorte e outros conjuntos de procedimentos de processamento de imagem em dados de imagem capturados. Por exemplo, cada uma dentre as câmeras N 215a a 215n podem capturar uma imagem parcial que compreende uma porção da imagem-alvo de acordo com cada campo de vista do sensor. Os campos de vista podem compartilhar áreas de sobreposição, conforme descrito acima. A fim de emitir uma única imagem- alvo, o módulo de costura de imagem 240 pode configurar o processador de imagem 220 para combinar as múltiplas imagens parciais N para produzir uma imagem-alvo de alta resolução. A geração de imagem-alvo pode ocorrer através de conjuntos de procedimentos de costura de imagem conhecidos.
[0097] Por exemplo, o módulo de costura de imagem 240 pode incluir instruções para comparar as áreas de sobreposição ao longo das bordas das imagens parciais N para corresponder os recursos a fim de determinar a rotação e o alinhamento das imagens parciais N umas em relação às outras. Devido à rotação das imagens parciais e/ou do formato do campo de vista de cada sensor, a imagem combinada pode formar um formato irregular. Portanto, após o alinhamento e a combinação das imagens parciais N, o módulo de costura de imagem 240 pode exigir sub-rotinas que configuram o processador de imagem 220 para recortar a imagem combinada para uma razão de formato e aspecto desejada, por exemplo, um retângulo 4:3 ou quadrado 1: 1. A imagem recortada pode ser enviada ao processador de dispositivo 250 para a exibição no visor 225 ou para salvar no módulo de armazenamento eletrônico 210.
[0098] O módulo de sistema operacional 245 configura o processador de imagem 220 para gerenciar a memória de trabalho 205 e os recursos de processamento do dispositivo 200. Por exemplo, o módulo de sistema operacional 245 pode incluir acionadores de dispositivo para gerenciar recursos de hardware tais como as câmeras 215a a 215n. Portanto, em algumas modalidades, as instruções contidas nos módulos de processamento de imagem discutidas acima podem não interagir com esses recursos de hardware diretamente, porém, em vez de interagir através de padrões de sub-rotinas ou APIs localizados no componente de sistema operacional 245. As instruções dentro do sistema operacional 245 podem, então, interagir diretamente com esses componentes de hardware. O módulo de sistema operacional 245 pode configurar adicionalmente o processador de imagem 220 para compartilhar informações com o processador de dispositivo 250.
[0099] O módulo de foco automático 255 pode incluir instruções que configuram o processador de imagem 220 para ajustar a posição de foco de cada uma das câmeras 215a a 215n, por exemplo, controlando-se o movimento e o posicionamento dos conjuntos de foco automático correspondentes. O módulo de foco automático 255 pode incluir instruções que configuram o processador de imagem 220 para realizar a análise de foco e determinar automaticamente os parâmetros de foco em algumas modalidades, e pode incluir instruções que configuram o processador de imagem 220 para responder aos comandos de foco de entrada de usuário em algumas modalidades. Em algumas modalidades, o sistema de lente de cada câmera na matriz pode ser focado separadamente. Em algumas modalidades, o sistema de lente de cada câmera na matriz pode ser focado como um grupo.
[0100] O dispositivo processador 250 pode ser configurado para controlar o visor 225 para exibir a imagem capturada, ou uma pré-visualização da imagem capturada, para um usuário. O visor 225 pode ser externo ao dispositivo de imageamento 200 ou pode ser parte do dispositivo de imageamento 200. O visor 225 também pode ser configurado para fornecer um localizador de vista para exibir uma imagem de pré-visualização para um uso antes da captura de uma imagem, ou pode ser configurado para exibir uma imagem capturada armazenada na memória ou capturada recentemente pelo usuário. O visor 225 pode incluir um visor de painel, por exemplo, uma tela de LCD, tela de LED ou outras tecnologias de exibição, e pode implantar tecnologias sensíveis ao toque.
[0101] O dispositivo processador 250 pode escrever dados para o módulo de armazenamento 210, por exemplo, dados que representam imagens capturadas. Embora o módulo de armazenamento 210 seja representado graficamente como um dispositivo de disco tradicional, aqueles versados na técnica entenderiam que o módulo de armazenamento 210 pode ser configurado como qualquer dispositivo de mídias de armazenamento. Por exemplo, o módulo de armazenamento 210 pode incluir um drive de disco, tal como um drive de disquete, drive de disco rígido, drive de disco óptico ou drive de disco óptico magnético ou uma memória de estado sólido tal como uma memória FLASH, RAM, ROM e/ou EEPROM. O módulo de armazenamento 210 também pode incluir múltiplas unidades de memória, e qualquer uma dentre as unidades de memória pode ser configurada para estar dentro do dispositivo de captura de imagem 200, ou pode ser externa ao dispositivo de captura de imagem 200. Por exemplo, o módulo de armazenamento 210 pode incluir uma memória ROM que contém instruções de programa de sistema armazenadas dentro do dispositivo de captura de imagem 200. O módulo de armazenamento 210 também pode incluir cartões de memória ou memórias de alta velocidade configurados para armazenar imagens capturadas que podem ser removíveis da câmera.
[0102] Embora a Figura 2 retrate um dispositivo que tem componentes separados para incluir um processador, sensor de imageamento e memória, uma pessoa versada na técnica reconheceria que esses componentes separados podem ser combinados em uma variedade de formas para alcançar os objetivos de projeto particulares. Por exemplo, em uma modalidade alternativa, os componentes de memória podem ser combinados com os componentes de processador para economizar despesas e aprimorar o desempenho.
[0103] Adicionalmente, embora a Figura 2 ilustre um número de componentes de memória, que inclui componente de memória 230 que compreende diversos módulos e uma memória separada 205 que compreende uma memória de trabalho, uma pessoa versada na técnica reconheceria que diversas modalidades utilizam arquiteturas de memória diferentes. Por exemplo, um projeto pode utilizar memória ROM ou RAM estática para o armazenamento de instruções de processador que implantam os módulos contidos na memória 230. As instruções de processador podem ser carregadas na RAM para facilitar a execução pelo processador de imagem 220. Por exemplo, memória de trabalho 205 pode compreender Memória RAM, com instruções carregadas na memória de trabalho 205 antes da execução pelo processador de imagem 220.
[0104] Visão Geral de Processo e Captura de Imagem Exemplificativo
[0105] A Figura 3 ilustra uma modalidade de um processo de captura de imagem óptica dobrada 900. O processo 900 começa no bloco 905, no qual uma pluralidade de câmeras é fornecida, em que cada tem pelo menos uma superfície de dobramento de luz e um conjunto de foco automático. As câmeras podem formar qualquer uma dentre as configurações de matriz de sensor discutidas no presente documento. As câmeras podem incluir, conforme discutido acima, um sensor, um sistema de lente e uma superfície refletiva posicionada para redirecionar luz a partir do sistema de lente para o sensor.
[0106] O processo 900, então, move o bloco 910, no qual a trajetória óptica da pluralidade de câmeras faz com que a luz que compreende uma imagem-alvo de uma cena seja redirecionada para fora pelo menos uma superfície de dobramento de luz em direção aos sensores de imageamento correspondentes. Por exemplo, uma porção da luz pode ser redirecionada para fora de cada superfície dentre uma pluralidade de superfícies em direção a cada sensor dentre uma pluralidade de sensores. Essa etapa pode compreender adicionalmente passar a luz através de um sistema de lente associado a cada sensor, e também pode incluir redirecionar a luz para fora de uma segunda superfície para o sensor.
[0107] O processo 900, então, transita o bloco 915, no qual um conjunto de lentes associado a cada uma dentre as câmeras é movido para tal posição em que uma imagem é focada no sensor, isto é, é “focada” ou “focada automaticamente” para uma posição focal desejada. Por exemplo, isso pode ser alcançado com o uso do atuador e do trilho-guia discutidos acima em algumas modalidades. Em algumas modalidades, O módulo de foco automático 255 da Figura 2 pode realizar o foco de lente.
[0108] O processo 900 pode, então, mover o bloco 920, no qual os sensores capturam uma pluralidade de imagens da cena de imagem de alvo. Por exemplo, cada sensor pode capturar uma imagem de uma porção da cena correspondente a tal campo de vista do sensor. Juntos, os campos de vista da pluralidade de sensores cobrem pelo menos a imagem-alvo no espaço de objeto.
[0109] O processo 900, então, pode transitar para o bloco 925 no qual um método de costura de imagem é realizado para gerar uma única imagem da pluralidade de imagens. Em algumas modalidades, o módulo de costura de imagem 240 da Figura 2 pode realizar esse bloco. Isso pode incluir conjuntos de procedimentos de costura de imagem conhecidos. Ademais, quaisquer áreas de sobreposição nos campos de vista podem gerar sobreposição na pluralidade de imagens, que podem ser usadas no alinhamento das imagens no processo de costura. Por exemplo, o bloco 925 pode incluir adicionalmente a identificação de recursos comuns na área de sobreposição das imagens adjacentes e usar os recursos comuns para alinhar as imagens.
[0110] Em seguida, o processo 900 transita para bloco 930 no qual a imagem costurada é recortada em uma razão de aspecto específica, por exemplo 4:3 ou 1:1. Finalmente, o processo termina após armazenar a imagem recortada no bloco 935. Por exemplo, a imagem pode ser armazenada no componente de armazenamento 210 da Figura 2, ou pode ser armazenado na memória de trabalho 205 da Figura 2 para a exibição como uma imagem de pré-visualização ou de revisão da cena-alvo.
[0111] Visão Geral de Conjuntos de Foco Automático de Câmera de Matriz Exemplificativos
[0112] A Figura 4 mostra um conjunto de câmera de matriz 1000 A de acordo com uma modalidade. O conjunto de câmera 1000A compreende superfícies de lente L1 a L5 implantadas em 1001, molde de sensor 1002, prisma de sensor 1003, superfície de lente L6 e vidro de cobertura de sensor 1005. O prisma de Sensor 1003 pode incluir uma superfície de espelho entre duas metades ou porções de um cubo de vidro em algumas modalidades.
[0113] A Figura 5 mostra uma câmera de matriz 1000B que usa múltiplos conjuntos de câmeras instalados em um substrato comum 1104 de acordo com uma modalidade. A câmera de matriz 1000B inclui uma pluralidade de conjuntos de câmeras individuais, semelhante ao conjunto 1000A mostrado na Figura 4, em que cada um compreende superfícies de lente L1 a L5 implantadas em 1001, molde de sensor 1002, prisma de sensor 1003, superfície de lente L6, vidro de cobertura de sensor 1005, e um conector elétrico 1006 que pode se conectar a outra parte ou partes de um sistema de câmera geral, tal como aquele descrito na Figura 2 e na Figura 3. Para questão de clareza, esses componentes foram etiquetados apenas em dois dentre os conjuntos de câmeras individuais. Nesse exemplo, quatro conjuntos de câmeras 1000A são utilizados. Mais câmeras ou menos câmeras (ou uma câmera) também podem ser usados. Nesse exemplo, o substrato 1004 pode fornecer fendas retangulares em que os quatro moldes de sensores de imagem 1002 são colocados e conectados aos traços elétricos condutivos que também podem ser parte do substrato 1004. Em algumas modalidades, o molde de sensor 1002 pode ser colocado diretamente no substrato 1004 e conectado aos traços elétricos condutivos sem utilizar fendas. Em outras modalidades há uma variedade de formas para montar moldes de sensor de imagem a um substrato que pode se conectar aos traços elétricos condutivos, aqueles versados na técnica podem estar familiarizados com outros métodos. O conector elétrico 1106 é usado para conectar os dispositivos elétricos no substrato 1004 ao sistema de processamento de imagem de câmera (não mostrado nessa Figura).
[0114] Em algumas modalidades, uma ou mais matrizes de sensores de imagem pode estar em um molde comum tal como aquele mostrado na Figura 8 da Publicação de Pedido de Patente n° U.S. 2014/0111650, depositada em 15 de março de 2013 e intitulada “MULTI-CAMERA SYSTEM USING FOLDED OPTICS”, incorporada ao presente documento por referência acima. Essa Figura mostra um exemplo de duas superfícies de imagem de sensor de imagem em um molde comum 811. Nesse exemplo, os prismas de objeto 820 e 821 são posicionados na parte de fora, opostos ao centro, conforme mostrado na Figura 1B. O prisma ou espelho de sensor de imagem 830 e 831 é mostrado no centro. O conjunto de lentes de uma lente é simbolizado pelo desenho de lente 840, e, de modo semelhante, para um conjunto de lentes simbolizado pelo desenho de lente 841. Os eixos geométricos ópticos 860 e 861 são mostrados apontando em duas localizações separadas no molde 811. O molde pode conter múltiplas áreas de matriz de sensor de imagem ou uma área de matriz de sensor de imagem comum que captura a imagem dentro do campo de vista de ambos os conjuntos de lentes 840 e 841. O conceito associado com essa Figura pode ser estendido a uma pluralidade de câmeras. Aqueles versados na técnica devem reconhecer que há outras formas de alinhar câmeras de modo a capturar uma pluralidade de imagens no espaço de objeto e utilizar um molde para capturar uma pluralidade de imagens associadas a cada câmera. Em algumas modalidades, mais que um molde pode ser usado, em que alguns podem ter uma pluralidade de imagens capturadas com um molde e outros com apenas uma imagem por molde.
[0115] Há vantagens de ter a capacidade para capturar imagens em um molde a partir de uma pluralidade de conjuntos de câmeras, tal como aquela mostrada em 1000A na Figura 4. Tal disposição pode reduzir a área e potência de molde coletivo em comparação à câmera de projeto de matriz, tal como aquela mostrada e, 1000B na Figura 5, em que uma imagem de câmera é capturada em um molde.
[0116] Dois prismas de objeto 1010 são mostrados no exemplo da Figura 5, em que duas câmeras compartilha um prisma de objeto. Há diversas configurações em que, por exemplo, um prisma de objeto pode ser usado para um, dois, três ou mais conjuntos de câmeras de tal conjunto 1000A. Os mesmos são chamados de “prismas de objeto” devido ao fato de que os mesmos são usados para dobrar o eixo geométrico óptico de cada conjunto de câmeras para apontar para o espaço de objeto. Há outras configurações possíveis de are prismas de objeto e conjuntos de câmeras. Em uma modalidade um prisma de objeto 1010 pode utilizar uma superfície refletiva 1011 no prisma em vez de usar as propriedades de reflexão interna totais do prisma. O prisma de objeto 1010 pode ser substituído por um espelho em vez de usar um prisma. O prisma, superfície refletiva de prisma, ou espelho refletiriam o eixo geométrico óptico e os raios de espaço de objeto de prisma em direção a pupila de entrada de uma câmera.
[0117] A Figura 6 ilustra uma modalidade dos campos projetados de vista da modalidade de matriz de óptica dobrada de sensor. Os campos de vista 600A a 600D podem compartilhar áreas de sobreposição 605 conforme mostrado. Os campos de vista de sobreposição 600A a 600D podem ser costurados em uma imagem completa da cena de imagem de alvo e recortados para uma imagem final 610 com uma razão de aspecto tal como 4:3 ou 1:1.
[0118] Visão Geral de Desempenho de Óptica Exemplificativo
[0119] As Figuras 7A a 7M ilustram desempenho de MTF simulado do conjunto L1 a L6 entre si com um prisma de sensor dentro de uma faixa de movimento para um conjunto de lentes móveis 705 conforme descrito no presente documento entre aproximadamente 0 e aproximadamente 172 μm. A Figura 7D ilustra uma modalidade na qual um projeto e processo de óptica dobrada são usados para focar um conjunto de câmeras em 1.000 mm no espaço de objeto. Na modalidade conforme mostrado na Figura 7D, o conjunto de lentes 705, que inclui elementos de lente L1 a L5, é movido para a posição de referência de 0,0 micrômetros (μm) pelo atuador 180, que é a posição que a câmera focará em 1.000 mm no espaço de objeto. Em cada uma das Figuras 7A, 7D, 7G e 7J o posicionamento do conjunto de lentes 705 dentro do espaço 710 demarcado pela borda 141 do prisma central e pela borda 131 do prisma de sensor é indicado pelo posicionamento das linhas pontilhadas verticais.
[0120] A Figura 7A ilustra uma modalidade de uma câmera óptica que tem um conjunto de lentes posicionado em -30 μm com relação à posição de referência 0,0 um. Nessa modalidade, conforme mostrado na Figura 7A, a câmera 1401 é focada em uma distância de hiperfoco de 6.767 mm. A Figura 7B ilustra dados de desempenho de MTF simulada versus ângulo de campo 1402a para a óptica (por exemplo, conjunto de lentes e prismas de sensor) de uma modalidade de matriz de óptica dobrada de sensor da Figura 7A (os módulos da função de transferência óptica “OTF” representam a MTF). Na Figura 7B, a linha sólida no gráfico representa a MTF para um padrão de estrela, e a linha tracejada no gráfico representa a MTF para círculos concêntricos. A Figura 7C ilustra Dados de MTF simulada versus dados de frequência espacial 1402b em ciclos por mm, em que múltiplas curvas de MTF são mostradas com relação aos ângulos de campo de objeto selecionados tanto para dados de desempenho sagitais quanto tangenciais para a óptica da modalidade de matriz de óptica dobrada de sensor da Figura 7A. Os dados de MTF simulada podem ser calculados (ou simulados) com o uso de programa de simulação tal como, por exemplo, OSLO, ZEMAX, CODE V, etc.
[0121] Conforme descrito acima, a Figura 7D ilustra uma modalidade de uma câmera óptica dobrada que tem um conjunto de lentes posicionado em 0,0 μm e focada a uma distância de 1.000 mm. A Figura 7E ilustra dados de desempenho de MTF simulada versus ângulo de campo 1404a para a óptica de uma modalidade de matriz de óptica dobrada de sensor da Figura 7D. Na Figura 7E, a linha sólida no gráfico representa a MTF para um padrão estrela, e a linha tracejada representa a MTF para círculos concêntricos. A Figura 7F ilustra Dados de MTF simulada versus dados de frequência espacial 1404b em ciclos por mm, em que múltiplas curvas de MTF são mostradas com relação aos ângulos de campo de objeto selecionado tanto para os dados de desempenho sagitais quanto tangenciais para a óptica da modalidade de matriz de óptica dobrada de sensor da Figura 7D.
[0122] A Figura 7G ilustra uma modalidade de uma câmera óptica dobrada que tem um conjunto de lentes posicionado em 142 μm com relação à posição de referência 0,0 μm. Nessa modalidade, conforme mostrado na Figura 7G, a câmera 1405 é focada em uma distância de 200 mm. A Figura 7H ilustra dados de desempenho de MTF simulada versus ângulo de campo 1406a para a óptica de uma modalidade de uma atriz de óptica dobrada de sensor da Figura 7G. Na Figura 7H, a linha sólida no gráfico representa a MTF para um padrão estrela, e a linha tracejada representa a MTF para círculos concêntricos. A Figura 71 ilustra Dados de MTF simulada versus dados de frequência espacial 1406b em ciclos por mm, em que múltiplas curvas de MTF são mostradas com relação aos ângulos de campo de objeto selecionado tanto para dados de desempenho sagitais quanto tangenciais para a óptica da modalidade de matriz de óptica dobrada de sensor da Figura 7G.
[0123] A Figura 7J ilustra um exemplo de uma modalidade de uma câmera óptica dobrada que tem um conjunto de lentes posicionado em 35 μm com relação à posição de referência 0,0 μm. Nessa modalidade, conforme mostrado na Figura 7 J, a câmera 1407 é focada em uma distância de 500 mm. A Figura 7K ilustra dados de desempenho de MTF simulada versus ângulo de campo 1410a para a óptica de uma modalidade de matriz de óptica dobrada de sensor da Figura 7J. Na Figura 7K, a linha sólida no gráfico representa a MTF para um padrão estrela, e a linha tracejada representa a MTF para círculos concêntricos. A Figura 7L ilustra Dados de MTF simulada versus dados de frequência espacial 1410b em ciclos por mm, em que múltiplas curvas de MTF são mostradas com relação aos ângulos de campo de objeto selecionado tanto para dados de desempenho sagitais quanto tangenciais para a óptica da modalidade de matriz de óptica dobrada de sensor da Figura 7 J.
[0124] As curvas de MTF mostradas em 1402a, 1404a, 1406a e 1410a nas Figuras 7B, 7E, 7H e 7K são exemplos de desempenho de MTF do conjunto L1 a L6 quando a câmera é focada nas distâncias mostradas nas Figuras 7A, 7D, 7G e 7J, respectivamente. Os gráficos mostram as curvas de MTF em direção angular, com relação ao eixo geométrico óptico, no campo de vista (FOV) da câmera, mostrada nos gráficos como “Campo Y em Graus”, em que a frequência de modulação espacial é de 225 ciclos por mm.
[0125] O sensor de cada câmera pode ter sua própria MTF, com base, em parte, na teoria de amostragem em que a MTF é retirada como uma função da passagem (ou passagens) dos pixels e densidade de amostragem dos pixels, em que a densidade de pixel de amostragem pode afetar o desempenho de MTF medido caso os artefatos, tal como suavização, estejam presentes. Portanto, em alguns exemplos, o desempenho de óptica simulado das Figuras 7B, 7C, 7E, 7F, 7H, e 71, 7K e 7L pode não corresponder ao desempenho de MTF medido de cada câmera única na câmera de matriz quando as medições de MTF são feias com o uso de emissões de pixel gravadas de um sensor de imagem, por exemplo, os valores digitais gravados para cada um dentre os pixels lidos a partir dos pixels de sensor de imagem. As medições podem considerar um número de pixels suficiente a fim de realizar uma medição de MTF versus ciclos por mm. Em algumas implantações um valor de pixel pode ser emitido para um armazenamento temporário analógico que pode adicionar ruído elétrico e, portanto, afetar o valor digital final do pixel gravado em uma memória. Consequentemente, quando a MTF medida incluir o desempenho de MTF da óptica apenas (por exemplo, sem o uso das emissões de pixel gravadas de um sensor de imagem ou outros meios intermediários que afetariam a MTF medido da óptica apenas) e a MTF das emissões de pixel gravado do sensor de imagem usado com a particular óptica sob a medição das medições de MTF pode não corresponder ao desempenho de MTF simulado tal como aquele mostrado nos gráficos 1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1410a e 1410b. Uma pessoa de habilidade comum na técnica também deve reconhecer que há outros fatores que podem afetar a MTF de um sensor tal como componentes de ruído que podem ser incluídos como parte da saída gravada a partir de um pixel na matriz de imagem, que não é/são incluídos, considerados e nem mostrados nessa revelação. Ademais, há diversos outros fatores que pode afetar a saída gravada a partir de um pixel em um sensor de imagem que não são incluídos, considerados e nem mostrados nessa revelação, tal como fontes de ruído adicionados por mídias eletrônicas ou outras mídias para transportar um nível de pixel e possivelmente sistemas conversores de Analógico para Digital (ADC) que podem ser parte do processo de gravação para capturar a saída de pixel de sensor de imagem. Pode haver outros fatores que podem afetar a MTF de um sensor de imagem que não são incluídos, considerados e nem mostrados nessa revelação no presente documento. As ópticas são projetadas nas modalidades das Figuras 7A a 7M para serem usadas ao longo de +/- 16 graus.
[0126] Para as posições de foco 6.767 mm, 1.000 mm e 500 mm as curvas de MTF correspondentes 1402a, 1402b, 1404a, 1404b, 1410a e 1410b são mostradas e são aproximadamente iguais tanto para o desempenho simulado de MTF tangencial quanto sagital ao longo de todo “Campo Y em Graus” (por exemplo, a partir de 0 grau a -16 graus ao redor do eixo geométrico óptico) e ao longo da faixa de frequências espaciais de imagem a partir de zero para acima de 450 ciclos por mm.
[0127] Para a posição +142 μm o desempenho simulado sagital permanece próximo a 50% de MTF ao longo do Campo Y em Graus inteiro a partir de zero a -16 graus, conforme mostrado no gráfico 1406a, e permanece próximo do limite de difração, conforme mostrado em 1406b, em que o limite de difração mostrado nos gráficos 1402b, 1404b, 1406b e 1410b é a curva de MTF máxima mostrada nesse gráfico. No entanto, o desempenho de MTF tangencial desvia do desempenho sagital conforme o Campo Y em Graus é aumentado. Isso significa que essa modalidade está próxima da distância mais baixa em que as imagens úteis podem ser capturadas, em que a resolução de MTF útil é alcançada para o desempenho de MTF sagital e o desempenho de MTF útil, porém reduzido, é alcançado para o desempenho de MTF Tangencial.
[0128] Para as posições de foco 6.767 mm (a posição de hiperfoco nessa modalidade), 1.000 mm e 500mm e os gráficos de MTF correspondentes 1402a, 1402b, 1404a, 1404b, 1410a e 1410b, são mostrados e são aproximadamente iguais tanto para dados de desempenho de MTF tangenciais quanto sagitais ao longo do Campo Y em Graus inteiro (por exemplo, a partir de 0 grau a -16 graus ao redor do eixo geométrico óptico) e ao longo da faixa de frequências espaciais de imagem a partir de zero a Nyquist em 450 ciclos por mm. A taxa de amostra de Nyquist para um sensor tem um pixel quadrado de 1,1 μm é de 454 ciclos por mm.
[0129] Conforme ilustrado, dados de desempenho de MTF sagitais e tangenciais mostrados nos gráficos 1402b, 1404b e 1410b estão próximos do limite de difração, em que o limite de difração mostrado nos gráficos 1402b, 1404b, 1406b e 1410b é a curva de MTF máxima mostrada nesses gráficos.
[0130] Para a posição +142 μm os dados de desempenho sagital no gráfico 1406a (Figura 7H) permanece próximo de MTF em 50% ao longo da faixa de Campo Y em Graus total de ângulos de objeto a partir de zero a -16 graus e permanece próxima do limite de difração, conforme mostrado no gráfico 1406b. No entanto, os dados de desempenho de MTF tangenciais em 1406b caem em cerca de 18 por cento em 16 Campo Y em Graus quando MTF mostrada na Figura 1406a for de 225 ciclos por mm. A taxa de amostra de meio Nyquist é de cerca de 225 amostras de pixel por mm quando a densidade de pixel for de 1,1 μm. Os valores de MTF por volta de 20 por cento são considerados, de modo geral, por aqueles versados na técnica como detectáveis. Isso significa que o sistema de lente pode não ter a capacidade para render dados de MTF detectáveis acima de 225 ciclos por mm quando o Campo Y em Graus estiver acima de 15 graus.
[0131] Pode ser desejável projetar o sistema de conjunto de lentes de modo que os dados de desempenho de MTF sagitais e tangenciais estejam próximos da curva de limite de difração de lente ao longo da faixa de frequência espacial a partir de zero a uma taxa de amostragem de Nyquist espacial de sensor de imagem. Em algumas modalidades, pode ser desejável que o desempenho de MTF de conjunto de lentes esteja próximo da curva de limite de difração em quase todos os ângulos de campo de objeto a fim de ter desempenho de MTF uniforme ao longo do campo de vista total da câmera. Também pode ser desejável que essas condições sejam cumpridas ao longo das exigências de faixa completa de foco do sistema, tal como a distância de foco de 200 mm à distância de hiperfoco de 6.767 mm.
[0132] O número f e a passagem de conjunto de lentes pode afeta a curva de limita de MTF de difração do conjunto de lentes. A altura H alcançável mínima, conforme mostrado na Figura 1A, pode, em parte, ser determinada pelo conhecimento do campo de vista do sistema de câmera, dos dados de desempenho de curvas de MTF de conjunto de lentes e a resposta de MTF de matriz de sensor associada às passagens de pixel e às taxas de amostragem espacial de sensor em pixels por mm (por exemplo, densidade de pixel). A partir dessas informações, pode-se ter a capacidade para determinar a passagem mínima do conjunto de lentes e, portanto, pode-se ter a capacidade para determinar a altura H alcançável mínima. Se as curvas de MTF do conjunto de lentes estiverem próxima do limite de difração, então, a altura H de conjunto de lentes pode estar próxima da altura mínima possível para um projeto de câmera particular e limite de difração associado. Uma modalidade de um projeto de câmera ideal (por exemplo, em que ideal significa as curvas de MTF de lente ao longo do FOV e as frequências espaciais até a taxa de amostra de Nyquist estão próximas do limite de difração ao longo da faixa de distâncias de foco desejadas o projeto óptico pode estar próximo da altura mínima H alcançável) pode ser considerada como tendo a passagem livre mínima que cumprirá a Regra de 20% de MTF; isto é, a MTF do sistema de câmera inclui a redução de MTF associada à passagens de pixel e as taxas de amostragem devem estar em, ou substancialmente em, cerca de 20 por cento no sensor de imagem taxa de amostragem de Nyquist. Conforme apontado no presente documento, outros fatores podem afetar a MTF que não são levados em consideração nesse exemplo.
[0133] Se as curvas de MTF de conjunto de lentes mais a redução de MTF, causadas pela passagem de pixel e taxa de amostra espacial de pixel (por exemplo, densidade de pixel), aumenta ou diminui a MTF significativamente a partir de cerca de 20 por cento na taxa de amostra de Nyquist, então, a imagem final pode ter desempenho degradado causado pelos artefatos de suavização observáveis ou ter menos desempenho de resolução em ciclos por mm que aquele alcançável para a passagem de pixel de sensor e taxa de amostra espacial (isto é, a taxa de amostra de Nyquist de densidade de pixel). Em outras palavras, se a MTF do sistema óptico e aquela do sensor de imagem combinadas produzira uma MTF de significativamente menos que 20% na taxa de Amostra de Nyquist, então, as frequências espaciais na cena podem ser reduzidas para menos que aquelas que podem ser alcançadas sem artefatos de suavização observáveis.
[0134] Se as tolerâncias do sistema (por exemplo, a quantidade de movimento permissível para as variações de rotação e translacionais ao redor do eixo geométrico óptico ideal, entre outros aspectos) levarem a MTF a diminuir, então, a passagem do conjunto de lentes pode, potencialmente, ser aumentada para manter a MTF acima ou próxima da regra de 20 por cento. Portanto, é desejável manter as tolerâncias e variações potenciais o mais baixo possível a fim de alcançar, o mais próximo possível, um projeto de câmera de altura H ideal.
[0135] A Figura 7M mostra a iluminação relativa simulada do conjunto de lentes. Conforme ilustrado, a iluminação relativa diminuiu apenas 10 por cento ao longo do FOV, que usa tipicamente um FOV estreito tal como +/-16 graus. Isso significa que é possível ter uma retirada de iluminação relativa baixa quando as imagens são costuradas entre si.
[0136] Em algumas das modalidades do conjunto de foco automático descritas no presente documento, L6 pode ser afixada ao prisma de sensor, e, então, a L6 mais o prisma de sensor podem ser montados ou montados permanentemente ao sensor de imagem vidro de cobertura ou diretamente ao sensor de imagem. Isso pode impedir que o prisma de sensor se incline ou desloque em relação ao sensor enquanto um processo de foco automático ocorre ou a inclinação ou o deslocamento sob a influência de outros fatores tais como gravidade, movimento ou temperatura.
[0137] A montagem da L6 mais o prisma de sensor para o sensor ou para o vidro de cobertura pode fornecer benefícios para superar efeitos prejudiciais potenciais sobre o desempenho de MTF do projeto de conjunto de lentes mostrado nas Figuras 1A e 1B pode ser sensível à quantidade de erro de inclinação de rotação e erro translacional linear com relação ao eixo geométrico óptico ideal 123. Para superar essa sensibilidade, as modalidades no presente documento podem fornecer um método de conjunto de lentes e de foco automático que não exigem a movimentação do prisma de sensor mais L6 com relação ao sensor de imagem. Os benefícios da afixação do prisma de sensor mais L6 ao plano de imagem de sensor de imagem incluem reduzir a sensibilidade de MTF aos desvios de inclinação de rotação e translacionais lineares a partir do eixo geométrico óptico ideal com relação ao plano de imagem de sensor de imagem. Uma vez que o alinhamento entre o prisma de sensor de imagem mais L6 ao plano de sensor de imagem é realizado precisamente durante o processo de conjunto os erros de inclinação e translacionais restantes devem ocorrer principalmente entre o conjunto de lentes L1 a L5 705 e o prisma de sensor. O uso do trilho-guia ou de outros dispositivos adequados, conforme descrito no presente documento, podem servir para reduzir ou restringir os erros de inclinação ou translacionais a partir do eixo geométrico óptico ideal do conjunto de lentes L1 a L5 705 com relação à unidade fixada composta do prisma de sensor, L6 e do sensor de imagem.
[0138] Conceitualmente, se representar-se um plano de imagem “visualizado” por sensor de imagem como o plano em que raios de luz podem passar desobstruídos, pode- se buscar a localização e a orientação de plano visualizado ideais que renderão o desempenho de MTF ideal mais alto uniforme conforme medido ao longo da superfície de plano de imagem visualizada que representa a superfície de imagem de sensor de imagem. Como exemplo, uma imagem mais bem ou mais claramente focada formada pela óptica no espaço de imagem (ou campo de luz) na frente e/ou atrás do plano do plano de imagem de sensor de imagem pode não ser alinhada paralela ao plano de imagem de sensor de imagem, e em alguns exemplos, a imagem mais bem focada no espaço de campo de luz na frente e/ou atrás do plano de imagem de sensor de imagem pode não ser um plano, porém, em vez disso, um contorno em que uma imagem pode ter a capacidade para alinhar um plano dentro do contorno para formar um melhor encaixe. Nesse exemplo, o desempenho de MTF ao longo do plano de imagem de sensor de imagem, quando o plano de imagem de melhor encaixe no campo de luz for focado de modo ideal no plano de imagem de sensor de imagem, pode ter desempenho de MTF reduzido ao longo do plano de imagem de sensor de imagem com relação ao projeto ideal. Esse tópico será abrangido adicionalmente quando discutir-se o diagram de traço de raio mostrado na Figura 9. Em algumas implantações, os raios longos que percorrem a partir da superfície de dobramento de luz secundária 135 (conforme mostrado nas Figuras 1A e 1B) ao plano de imagem de sensor de imagem ampliarão os efeitos de variações de rotação do prisma de sensor mais L6 com relação ao eixo geométrico óptico ideal que cruza o plano de imagem de sensor.
[0139] Se o prisma de sensor for movido apenas para frente e para trás ao longo do eixo geométrico óptico 123, então, a distância a partir de superfície de lente L5 à superfície de dobramento de luz secundária 135 aumentará ou diminuirá ao longo do eixo geométrico óptico 123. O eixo geométrico óptico, quando projetado sobre o plano de imagem de sensor de imagem, pode deslocar seu ponto de cruzamento em relação a um ponto de referência no plano de imagem de sensor de imagem. Consequentemente, quando o prisma de sensor for permitido se mover dentro de um determinado agrupamento de rotação e/ou translacional de faixas, o cruzamento do eixo geométrico óptico 123 com o plano de imagem de sensor de imagem pode desviar em uma distância linear de um ponto de referência no plano de imagem de sensor de imagem.
[0140] Em algumas modalidades, o prisma de sensor mais L6, conforme mostrado nas Figuras 7A, 7D, 7G e 7J, pode causar uma alteração em uma localização em que o eixo geométrico óptico cruza o plano de imagem de sensor de imagem quando o prisma de sensor mais L6 é movido para cima e para baixo no plano da página. A superfície L6 pode fazer com que o eixo geométrico óptico 123 desvie em um ângulo a partir de um ângulo ideal normal ao plano de imagem de sensor de imagem, que pode reduzir o desempenho de MTF como uma função da quantidade de tal variação translacional e o formato (por exemplo, curvatura) do elemento projeto de lente L6.
[0141] O propósito da descrição dessas variâncias é apontar a importância de minimizar as variações de rotação e translacionais do prisma de sensor com relação ao ponto de referência ideal e plano de imagem de sensor de imagem ideal. Um exemplo de como isso pode ser feito é afixar o prisma de sensor mais L6 à placa de vidro de sensor de imagem, se estiver presente, ou ao plano de imagem de sensor de imagem se a placa de vidro de sensor de imagem não estiver presente. Isso pode impedir variações de rotação do prisma de sensor mais L6 com relação a um ponto de referência no plano de sensor de imagem. Uma vez que isso seja feito, as variações restantes estarão entre o conjunto de lentes móveis 130 e o prisma de sensor, por exemplo, as variações de rotação e translacionais do conjunto de lentes 130 com relação ao eixo geométrico óptico 123, em que tal eixo geométrico óptico começa a partir de um ponto no plano de imagem de sensor de imagem, percorre através de L6, do prisma de sensor, se flexionam na superfície refletiva 135 e saem do prisma de sensor ao longo do eixo geométrico óptico 123. São descritos métodos e sistemas com relação às Figuras 8A, 8B e 8C que podem ajudar a reduzir ou minimizar essas variações de rotação e translacionais do conjunto de lentes 130 com relação ao eixo geométrico óptico mencionado anteriormente 123.
[0142] Visão Geral de Componentes de Foco Automático Exemplificativos
[0143] As Figuras 8A a 8C ilustram uma modalidade de um projeto 1500 sobre como o conjunto de lentes L1 a L5 130 é movido para frente e para trás com relação ao prisma de sensor através de um motor dispositivo 1501, em que o prisma de sensor pode incluir o prisma 136A mais bloco 136B e a superfície refletiva 135. Movendo-se o conjunto 130 para frente e para trás, a posição de foco no espaço de objeto pode ser alterada. As Figuras 8A a 8C ilustram como, nessa modalidade, os elementos de lente L1 a L5 são movidos para frente e para trás para aumentar ou diminuir a distância entre as superfícies de lente L5 ao plano de imagem de sensor superfície, e, portanto, aumentar ou diminuir o comprimento focal.
[0144] A Figura 8A ilustra o conjunto completo 1500, que inclui os componentes descritos acima com relação à Figura 1A.
[0145] A Figura 8B ilustra um exemplo de uma porção estacionária 1502 de um conjunto completo de câmeras 1500 que inclui substrato 150, atuador 1501, sensor 125, vidro de cobertura 126, lente L6, prisma refrativo 145 que inclui superfície de dobramento de luz primária 124, e superfície de dobramento de luz secundária 135 entre prisma refrativo 136A e bloco 136B. O atuador pode ser preso a um membro de suporte (por exemplo, placa de circuitos 195) que, por sua vez, é presa ao substrato de sensor 150.
[0146] A Figura 8C ilustra um exemplo de uma porção móvel 1503 da câmera 1500 que inclui um trilho-guia 185, porção móvel 130 do sistema de lente que inclui superfícies de lente L1 a L5 e um membro de contato de atuador 1506. O conjunto de lentes móveis 130 pode incluir um número de lentes formadas e posicionadas para fornecer o comprimento de foco desejado. A configuração de lente particular mostrada para o conjunto de lentes móveis 130 é destinada a fornecer um exemplo, e qualquer configuração de lente que tem a capacidade para manter bom desempenho de imagem enquanto se move dentro das tolerâncias do sistema de óptica dobrada pode ser usada. O trilho-guia 185 pode entrar em contato com a superfície inferior do prisma refrativo 136A e bloco 136B para estabilizar o movimento de rotação do conjunto de lentes móveis 130 (nas direções de rolamento, de guinada e de passo) para dentro de tolerâncias, bem como o movimento translacional (na direção para cima e para baixo ou para esquerda ou direita) do conjunto de lentes móveis para dentro das tolerâncias.
[0147] Nessa modalidade, o método para manter os conjuntos, tal como 1503 ao conjunto 1502, não são mostrados. Exemplos de tais métodos incluem, porém, sem limitação, usar ranhuras de deslize e/ou intertravamento. Um ou mais campos magnéticos, tal como induzidos por ímãs, não exigem uma fonte de alimentação e/ou geradores de campo magnético que exigem /podem exigir fontes de alimentação, podem ser usados para diminuir a resistência entre partes e/ou conjuntos mecânicos tal como a porção estacionária 1502 (Figura 8B) e a porção móvel 1503 (Figura 8C) da câmera. Por exemplo, tais ranhuras de deslize e/ou intertravamento com, por exemplo, dois campos magnéticos. Um campo magnético pode estar ao redor de 130 e um segundo pode estar ao redor da área de motor 180 ou outras localizações em tal conjunto 1500. Enquanto que o cilindro de lente de dispositivo móvel tradicional é suspenso normalmente por um campo magnético e, portanto, resulta em mais deslocamento translacional X, Y e Z e/ou deslocamento de rotação tal como rolamento, passo e guinada.
[0148] Outra modalidade de um sistema de óptica dobrada adequado é usar a superfície de espelho 135 como uma superfície de direcionamento de luz secundária sem um prisma circundante. Consequentemente, o elemento ilustrado das porções de prisma 136A, 136B é removido e apenas a superfície de espelho 135 permanece. Um projeto de estrutura para prender um espelho 135 pode ser usado para guiar o trilho-guia 185.
[0149] Mantendo-se as tolerâncias com tolerâncias mais rígidas que aquelas de um dispositivo móvel tradicional, influências de forças (por exemplo, aceleração e desaceleração do sistema de câmera) e vibrações das influências dentro e fora dos sistemas de câmera podem ser impedidos, aliviados e/ou minimizados.
[0150] Há diversas outras formas de suspensão diferentes dos campos magnéticos, por exemplo, tais métodos que podem ser usados incluem um ou mais dentre óleo, rolamentos de esfera, ar, gás, líquidos ou sólidos de lubrificação ou semelhantes.
[0151] Uma vantagem dos conjuntos de multissensores ópticos dobrados descritos no presente documento é a habilidade para usar guias longas e uma ou mais suspensões tal como usar, por exemplo, campos magnéticos, rolamentos de esfera e líquidos tal como óleos para manter os dispositivos como, porém, não necessariamente, ajudar a manter a porção estacionária 1502 e a porção móvel 1503 da câmera dentro de tolerâncias rígidas. Tais tolerâncias, por exemplo, podem ser as tolerâncias translacionais de movimento como direções lineares X, Y e Z e as tolerâncias de movimento de rotação como rolamento, passo e guinada, em que o significado de movimento translacional, movimento de rotação, movimento de passo, movimento de rolamento e movimento de guinada podem ser encontrados na literatura. As direções de referência para essas tolerâncias não são mostradas devido ao fato de que dependerão do projeto particular usado.
[0152] Outra vantagem é que há espaço para fornecer estruturas que são elétricas e/ou mecânicas entre e ao redor dos conjuntos de câmeras 1000A e/ou 1500. Tal estrutura pode ter dispositivos elétricos e/ou mecânicos de intertravamento para controlar as posições de foco para 1, 2 ou mais conjuntos de câmeras 1000A e/ou 1500. As modalidades do presente pedido não são limitadas aos dispositivos de câmera móvel e são aplicáveis igualmente aos dispositivos de câmera e sistemas de imageamento de qualquer tipo.
[0153] Uma vantagem-chave da óptica dobrada é que os indicadores de posição podem ser usados de modo que um processo adequado possa usar essas informações. Pode haver mais espaço para tais indicadores de posição dentro do conjunto de lentes 1000A e/ou 1500. Também pode haver mais espaço dentro do alojamento de câmera de matriz para manter uma ou mais câmeras. Tais câmeras adicionais podem auxiliar na detecção de profundidade a ser usada para auxiliar a focar um conjunto de lentes ou conjuntos de lentes da câmera de matriz. Tais indicadores de posição podem ser colocados nos substratos de alojamento e/ou de conjunto como aqueles mostrados na Figura 5.
[0154] Enquanto que o alojamento é uma estrutura que pode circundar os módulos de câmera em conjunto e/ou o substrato do conjunto 1004 parcial ou completamente.
[0155] Em outras modalidades, projetos ópticos da localização de movimento entre superfícies de lente L1 a L6 podem ser diferentes, porém, os mesmos conceitos, conforme descrito no presente documento, se aplicam. O número de superfícies pode ser diferente para outros projetos ópticos. Outras implantações podem ser usadas tal como alterar a curvatura de uma ou mais superfícies tal como aquelas de uma lente líquida ou outras tecnologias. Algumas vantagens de tais implantações são, por exemplo: o eixo geométrico óptico de uma câmera em relação às outras na matriz não altera a posição, que é uma consideração importante quando se costura as imagens entre si. É possível implantar um indicador de posição do conjunto de lentes móvel. Com essas informações, um módulo ou um dispositivo externo, como um sensor de processador de imagem (ISP), pode estimar a distância que a câmera está focando. O conhecimento da localização de foco para cada câmera na matriz pode ajudar com a costura das imagens entre si e permitir outros recursos únicos, como fornecer imagens de DoF estendidas (profundidade de campo) focando- se cada câmera em distâncias diferentes. A calibragem pode ser usada para determinar, dentro de certeza razoável, a possibilidade de cada uma das câmeras ter obtido bom foco.
[0156] Outra modalidade é remover o bloco de prisma 136A e manter apenas a superfície de espelho 135. A superfície de espelho pode ser afixada a uma placa, um 136B semelhante ao bloco de suporte ou outros meios. Ao redor do espelho pode ser colocada uma estrutura para manter o espelho alinhado firmemente e estacionário com relação à superfície de plano de imagem de um sensor de imagem 125, em que o espelho, L6 e o sensor de imagem 125 não se moverão uns em relação aos outros. A estrutura usada para manter firmemente o sensor 125, L6 e a superfície de espelho 135 no lugar também pode ser projetada para suportar o sistema móvel 1503 mostrado na Figura 8C. Ao passo que todos os itens descritos onde 136A e 136B estão na modalidade agora também se aplicam a esse caso em que os mesmos não estão na modalidade.
[0157] Outra modalidade é usar um bráquete em “U” em vez de um 185 semelhante à haste mostrado nas Figuras 8A e 8C. Esse bráquete em “U” pode deslizar ao longo de todas as três superfícies de um prisma de sensor 136A e de bloco 136B ou da estrutura de suporte de espelho conforme descrito acima. Isso adicionará suporte adicional para minimizar ou restringir as variações de inclinação e translacionais lineares ou movimento.
[0158] Visão Geral de Traço de Raio Exemplificativo
[0159] A Figura 9 mostra um traço de raio de luz conforme o mesmo passa através de uma modalidade do conjunto de lentes 1600, percorre através de superfícies de lente L1 a L5, reflete para fora da superfície 1603, passa através da superfície de lente L6 e adiante para a superfície de sensor 1602. Nessa modalidade, cinco grupos de raios de luz são mostrados com o uso de tracejamentos diferentes para fins de clareza nos seguintes grupos de raios de luz através do conjunto de lentes 1600. Cada grupo é de um ponto diferente no espaço de objeto em relação ao eixo geométrico óptico e distante o suficiente para ser considerado como no infinito. Conforme esses raios percorrem através das superfícies ópticas L1 a L6, os mesmos se aglomeram entre si, conforme mostrado na Figura 9, conforme os mesmos se movem mais próximos da superfície de sensor 1602.
[0160] A modalidade do conjunto de lentes 1600 ilustrada na Figura 9 não tem estruturas 136A e bloco 136B conforme mostrado nas Figuras 8A e 8B, em vez disso, mostra apenas a superfície de espelho 1603. A estrutura de suporte que segura a superfície de espelho 1603 não é mostrada e a estrutura de suporte para a estrutura móvel 1503, conforme mostrado na Figura 8C, também não é mostrada na Figura 9. Na Figura 9, os raios são mostrados entrando em L1 a partir de 5 alturas de objeto diferentes no FOV da câmera do espaço de objeto e percorrem através do sistema de lente óptico L1 a L6 e terminam no plano de imagem de sensor superfície em 5 alturas de imagem diferentes.
[0161] Um espelho 1603 pode ser usado para refletir os raios em direção à superfície de sensor de imagem (por exemplo, o plano de imagem de sensor de imagem 1602). Presumindo-se que a lente L6 diretamente acima do sensor de imagem não esteja presente, se torna evidente que os raios de luz devem passar uma distância longa da última superfície de lente de L5 no conjunto de lentes horizontal (em que horizontal se refere a um plano paralelo ao plano da superfície de sensor de imagem 1602 ao espelho 1603 e, então, chega na superfície do sensor 1602. Consequentemente, a superfície de lente L6, algumas vezes chamada de “Corretor de Campo”, é colocada próxima ao plano de imagem para realizar as correções finais aos raios, de modo que os mesmos convirjam o mais próximo possível de um ponto na superfície de sensor 1602. Tal lente é colocada próxima do plano de imagem, em que parte da sua função é realizar ajustes do raio, de modo que possa mais bem focar ao longo da altura de imagem total. A lente L6 tem vantagens devido a sua habilidade para proporcionar correções pequenas à progressão de luz através do sistema que permitirá a habilidade para imagear imagens de alta resolução na superfície de sensor de imagem, enquanto que um sistema sem superfície de lente tal como L6 pode não ter a capacidade para alcançar o mesmo nível de resolução de MTF.
[0162] Visão Geral de Desempenho Óptico Exemplificativo para Densidades de Pixel Particulares
[0163] A Figura 10A ilustra um padrão de função de dispersão de ponto (PSF) que pode ser imageado em um plano de sensor de imagem, por exemplo, de um sensor de imagem da matriz, a partir de um ponto no espaço de objeto. A seguinte discussão do padrão de PSF se refere a determinar uma densidade de pixel adequada para o uso com o conjunto de lentes L1 a L6 ou outro conjunto de lentes que satisfaça os critérios de desempenho para o uso com uma câmera de matriz conforme descrito no presente documento. A tendência em direção a sensores de densidade de pixel quadrado menores de aproximadamente 1,1 micrômetro, 1,0 micrômetro e tamanhos de pixel de submícron impôs exigências de tolerância mais rígidas nos projetos de lente a fim de ter a capacidade para definir recursos finos em uma imagem, tal como dois pontos adjacentes ou duas linhas finas adjacentes. Se o conjunto de lentes não tiver foco suficientemente agudo, tais recursos finos podem não ser definíveis. Isso pode ser entendido pelo conceito análogo de uma resposta de impulso para um sistema, tal como a resposta de um filtro elétrico linear no domínio de tempo. Voltando-se agora para um sistema de lente, em vez de ter uma resposta de impulso no domínio de tempo tal como aquela de um filtro elétrico, as lentes têm uma resposta de PSF a um objeto de ponto no espaço de objeto quando imageado e focado em uma superfície de plano de imagem no espaço de imagem. A amplitude dessa PSF pode ser usada como uma métrica para determinar o menor tamanho de pixel que é mais compatível com uma lente particular. Os critérios de Rayleigh também podem ser usados como uma métrica para determinar o tamanho de um pixel que mais compatível com uma lente particular.
[0164] O objetivo do conjunto de lentes L1 a L6, ou um conjunto semelhante usado no lugar do conjunto L1 a L6, é cumprir as exigências de resolução de MTF e PSF estabelecidas no presente documento para pixels pequenos, por exemplo, pixels de 1 micrômetro ou submicrômetro, enquanto também mantém a câmera de matriz, composta de um ou mais conjuntos de câmeras, a mais fina possível.
[0165] A função de dispersão de ponto (PSF) é uma medição da potência de solução de um sistema óptico. Quanto mais estreita a função de dispersão de ponto for, melhor será a resolução. Conforme o nome implica, a função de dispersão de ponto define a dispersão de um objeto de ponto no espaço de objeto quando imageada e focada em um plano de imagem. O grau de dispersão do objeto de ponto no espaço de objeto em um plano de imagem focado pode ser uma medição para a qualidade de um conjunto de lentes, tal como L1 a L6. As curvas nas plotagens das Figuras 10B a 10E são exemplos que ilustram o quão próximo dois pontos no espaço de objeto podem estar antes dos mesmos estarem nas medições definíveis do grau de dispersão ou desfoque em uma resposta de PSF quando focadas em um plano de imagem. No gráfico da Figura 10B:
[0166] Zo = 1,22*V(f/#)
[0167] f/# = número f = EFL/(Passagem Livre) a. = comprimento de onda de luz = 550 nm
[0168] A Figura 10B ilustra uma curva de perfil em corte transversal 1710 de uma função de PSF para um ponto no espaço de objeto, em que o valor de pico de 1, conforme mostrado, na curva, é o máximo da PSF normalizada. A Figura 10C ilustra um gráfico de uma PSF não está definida. Na Figura 10C, por exemplo, duas curvas de PSF 1712 e 1713 mostram, independentemente, duas curvas de PSF de dois pontos adjacentes no espaço de objeto. As duas curvas de PSF estão próximas o suficiente a ponto de sobrepor uma à outra. Quando essas duas curvas 1712 e 1713 são adicionadas juntas, o resultado é a curva 1711, em que a curva 1711 é ligeiramente mais ampla, porém, é difícil dizer se há dois pontos ou apenas um ponto no espaço de objeto.
[0169] A Figura 10D ilustra um gráfico semelhante de dois padrões de PSF 1722 e 1723 separados o suficiente de modo que quando são adicionados obtém-se a curva 1721, em que quase não se pode definir dois pontos de objeto adjacentes. A Figura 10E é um exemplo que ilustra dois padrões de PSF 1732 e 1733 que sobrepõem um ao outro a partir de dois pontos adjacentes no espaço de objeto, de modo semelhante às Figuras 10C e 10D. Nesse exemplo, quando adicionados juntos obtém-se a curva 1731, que é tipicamente considerada como definível, em que indica que há dois pontos de objeto adjacentes no espaço de objeto. O sensor de imagem é, então, usado, por exemplo, para medir os níveis do padrão de luz imageado e focado no plano de imagem de sensor de imagem. Como exemplo, há caixas retangulares verticais adjacentes 1705 que são mostradas repousadas sobre os dois picos mostrados na curva 1731 e o mínimo entre os dois picos. A fim de medir esses três níveis de luz, por exemplo, três pixels aproximadamente dentro ou próximos desses dois picos e do meio são exigidos no mínimo. Se esses pixels forem monocromáticos o nível de luz que é imageado nesses pixels pode ser medido. A área de pixel (por exemplo, passagem) e o período de tempo de conversão de fótons de luz para um sinal, tal como um sinal elétrico, por exemplo, pode representar uma medição do nível de luz em um determinado pixel. Dessa forma, por exemplo, pode-se converter o nível de luz no pixel de sensor de imagem para um sinal elétrico, quando ponderado sobre um período de tempo particular. Aqueles versados na técnica podem entender que os pixels de amostragem da matriz de sensor de imagem podem filtrar espacialmente o padrão de imagem de luz focado no plano de imagem do sensor de imagem. Por exemplo, ponderando-se os níveis de luz de um dentre os picos de curva 1731 em um pixel monocromático pode não render um sinal elétrico comparável ao pico real do nível de luz, em vez disso, pode ser a integração do nível de luz ao longo da área (por exemplo, passagem) do pixel e do período de tempo ao longo do qual os fótons de luz são capturados pelo pixel. Enquanto que, para propósitos exemplificativos no presente documento, a área de uma superfície de pixel é considerada como a passagem do pixel.
[0170] Se, por exemplo, uma pessoa escolhesse realizar medições que permitissem determinar a color do espectro de luz que é imageado em cada pixel monocromático, pode-se precisar selecionar um padrão de cor tal como o padrão de cor Bayer em que, por exemplo, uma pessoa, então, adicionaria quatro pixels para cada pixel monocromático em que cada um dentre esses quatro pixels terá um dentre os quatro filtros de cor de luz de padrão de filtro Vermelho, Verde e vermelho, Azul, Verde e azul (por exemplo, R, Gr, B e Gb), que é tipicamente a forma comum de referir os filtros de cor de um padrão de filtro de cor Bayer. Aqueles versados na técnica podem estar cientes de tal padrão e como converter a saída de cada dentre os pixels de cor R, Gr, B e Gb (por exemplo, um padrão RGrBGb) para valores que representa a cor para esses quatro pixels dentro do pixel representado por um pixel monocromático. Na Figura 10E observa-se um padrão horizontal em que o pixel Gr 1752 e o pixel R 1753 são adjacentes um ao outro. Tanto Gr quanto R são repetidos como um par ao longo da fileira horizontal mostrada na Figura 10E. Os pixels B e Gb não são mostrados devido ao fato de que os mesmos estão em uma fileira logo atrás dos pixels Gr e R, em que atrás significa um plano logo atrás do plano da Figura 10E. Aqueles versados na técnica podem reconhecer que o número de pixels em cada fileira e coluna agora aumentaram em dois.
[0171] Se, por exemplo, for usado um alvo preto e branco no espaço de objeto como uma forma de medição da resolução do conjunto de lentes junto com uma matriz de sensor de imageador, então, uma pessoa versada na técnica pode reconhecer que cada pixel de cor teria a capacidade para medir a luz imageada na passagem do pixel, devido ao fato de que os alvos preto e branco projetam espectro de luz amplo o suficiente para abranger o espectro de filtros de cor dos filtros de cor R, Gr, B e Gb. Dessa forma, pode-se considerar cada um dentre os pixels de cor como uma amostra separada da imagem do alvo preto e branco no plano de imagem de sensor de imagem.
[0172] A Figura 10F ilustra e exemplifica dois objetos de ponto adjacentes no espaço de objeto que são claramente definíveis.
[0173] O desempenho de PSF do conjunto de lentes pode ser usado para determinar uma densidade de pixel adequada para o uso com o conjunto de lentes. A câmera óptica dobrada de matriz conjuntos de lentes deve ter a capacidade para definir ou definir claramente os pixels do tamanho de pixel de sensor correspondente.
[0174] Em uma modalidade, um único conjunto de lentes de óptica dobrada sem um sensor de imagem pode ter, um EFL de 6,3, um f/# de 2,5, um FOV de 32 graus, um diâmetro de círculo de imagem de 3,56 mm, em um comprimento de onda de 550 nanômetros (nm). Tal conjunto de lentes óptico pode ser como um sistema adequado para uma densidade de pixel de sensor de imagem quadrado monocromático para o uso com o L1 a L6 ou um conjunto semelhante de lentes pode ser de aproximadamente 0,84 μm (micrômetro) em cada lado horizontal e vertical do pixel, e um densidade de tamanho de pixel quadrado de sensor de imagem Bayer adequado de aproximadamente 0,42 μm em cada lado. Outros fatores podem reduzir o desempenho de tal sistema de conjunto de lentes em que o mesmo pode não ser possível alcançar o desempenho de MTF ou de PSF ideal adequado para pixels monocromáticos de 0,84 μm e/ou pixels de sensor de imagem de filtro de cor Bayer de 0,42 μm.
[0175] A Figura 11 ilustra dados de desempenho de limite de difração 1791 para um conjunto de lentes de óptica dobrada em que a passagem do conjunto de lentes, tal como L1 a L6, tem uma passagem circular e o padrão usado para medir o desempenho de MTF do conjunto de lentes é um padrão sinusoidal padrão sinusoidal. A Figura 11 também mostra uma linha de aproximação 1792 extraída da MTF de 1,0 a um ponto 0,9 na abscissa, sendo que a abscissa do gráfico está nos termos de V/Vo, sendo que V representa um padrão sinusoidal com uma frequência espacial de ciclos V por mm e Vo representa o “Ponto de Desaparecimento” em que V tem aproximadamente zero (0) MTF. A câmera de matriz com um sistema de lente conforme descrito no presente documento, em que um padrão sinusoidal no espaço de objeto é imageado em uma superfície de plano de imagem, em que o padrão sinusoidal no plano de imagem é descrito em ciclos por mm. Por exemplo, os conjuntos de lentes de câmera matriz descritos no presente documento, o ponto de desaparecimento Vo pode ser de aproximadamente 727 ciclos/mm conforme mostrado para a curva 1791 e o ponto de intersecção da linha 1792 na abscissa é de 654 ciclos/mm, que é 90% de Vo.
[0176] A Figura 12 ilustra a resposta de frequência espacial de MTF normalizada teórica, com base na teoria de amostragem, de uma matriz de sensor de imagem quando um padrão sinusoidal de luz for imageado ao longo de uma fileira ou coluna de pixels na matriz de sensor de imagem. Aqueles versados na técnica devem reconhecer que isso é a resposta teórica de uma fileira ou coluna de amostras de pixel com base na teoria de amostragem. As equações para curva normalizada mostradas na Figura 12 são:
[0177] MTFDetector(Sf) = 1, quando Sf=0.
[0178] A equação para essa retirada é:
[0179] MTFDetector(Sf) = abs(sin(Pi*PW*Sf))/(PixelPitch*Sf)
[0180] em que Sf é a frequência espacial normalizada do padrão sinusoidal de luz projetado ao longo de uma fileira ou coluna em uma matriz de sensor de imagem de pixel quadrados, PW representa uma amplitude de pixel quadrado nas direções horizontal ou vertical e PixelPitch representa a densidade horizontal e vertical de pixel da matriz de sensor de imagem. A amplitude de pixel é, normalmente, ligeiramente menor que a densidade de pixel para um sensor de imagem de câmera típica, porém, para os exemplos apresentados no presente documento a amplitude de pixel deve ser considerada a mesma que a densidade de pixel. Uma pessoa de habilidade comum na técnica deve reconhecer que o termo “amplitude de pixel” pode ser determinado conhecendo-se os sensores densidade de pixel e o significado comum do termo “fator de preenchimento”, sendo que o fato de preenchimento é usado quando um sensor de imagem tem microlentes em cada pixel. A microlente de cada pixel é usada para focar luz na área fotossensível do pixel. Em alguns casos, o fator de preenchimento pode ser 80% ou mais da área coberta por cada pixel em alguns casos o fator de fator de preenchimento pode ser considerado próximo de 100% da área de pixel. Nas modalidades exemplificativas nessa revelação, um fator de preenchimento de 100% pode ser presumido, salvo caso declarado de outro modo ou caso o contexto indique de outro modo.
[0181] As Figuras 13A a 13E ilustram critérios de desempenho de MTF para uma combinação de lente e sensor. O conjunto de lentes pode ser a combinação de L1 a L6 combinação ou qualquer outro sistema de lente que satisfaz os critérios de desempenho descritos no presente documento. A Figura 13A mostra uma tabela das taxas de amostragem de Nyquist para um sensor de imagem que usa uma densidade de pixel de 1,4 μm conforme mostrado na coluna 2001, para um sensor de imagem que usa uma densidade de pixel de 1,1 μm conforme mostrado na coluna 2002, e para um sensor de imagem que usa uma densidade de pixel de 0,5 μm conforme mostrado in coluna 2003.
[0182] A Figura 13B mostra a retirada de MTF de amostragem teórica para três matrizes de sensor de imagem que têm amplitudes de pixel de sensor de imagem horizontal e vertical de 1,4 μm, 1,1 μm e 0,5 μm conforme mostrado nos gráficos 3301, 3302 e 3303, respectivamente. A linha 3304 também é mostrada na Figura 13B, que se aproxima do limite de difração para o conjunto de lentes L1 a L6 descrito para 1792 da Figura 11. A Figura 13C ilustra uma vista ampliada da retirada de MTF 3301 para a matriz de sensor de imagem de pixel quadrado de 1,4 μm compara à aproximação de limite de difração 3304 para o conjunto de lentes L1 a L6. A Figura 13D ilustra uma vista ampliada da retirada de MTF 3302 para uma matriz de sensor de imagem de pixel quadrado de 1,1 μm comparada à aproximação de limite de difração 3304 para o conjunto de lentes L1 a L6. A Figura 13E ilustra uma vista ampliada da retirada de MTF 3303 para uma matriz de sensor de imagem de pixel quadrado de 0,5 μm comparada à aproximação de limite de difração 3304 para o conjunto de lentes L1 a L6.
[0183] As linhas tracejadas 4501, 4502 e 4503 em cada Figura 13C, 13D e 13E representam o produto do limite de difração 3304 e a retirada de MTF correspondente com curvas 3301, 3302 e 3303 na Figura 13B. As linhas verticais sólidas 4701 e 4702 representam a taxa de amostra de Nyquist para a densidade de pixel 1,4 μm e 1,1 μm, respectivamente. Os triângulos 4601 e 4602 representam, aproximadamente, a interferência de retorno de dobra de suavização que resulta da suavização. Conforme ilustrado pelas Figuras 13C e 13D, a suavização pode ocorrer. De modo geral, a interferência de suavização abaixo de 20% de MTF é aceitável em termos de não ter artefatos de suavização observáveis. Não obstante, os detalhes acima de Nyquist podem voltar e interferir com as frequências abaixo de Nyquist independentemente de as mesmas serem observáveis ou não. Consequentemente, uma densidade de pixel de 1,1 μm deve produzir resultados aceitáveis quando usado com um conjunto de lentes L1 a L6 conforme descrito no presente documento. Conforme ilustrado na Figura 13C, uma densidade de pixel de 1,4 pode produzir resultados de suavização visíveis indesejáveis (e observáveis) quando usada com um conjunto de lentes L1 a L6 conforme descrito no presente documento. Isso se deve ao fato de que a suavização significativamente acima de 20% de MTF pode produzir artefatos de suavização visíveis.
[0184] Conforme demonstrado pelas Figuras 10A a 13E, o Critério de Rayleigh para resolução fornece diretriz sobre como determinar o tamanho de pixel adequado para o uso com um a L1 a L6 ou conjunto de lentes de desempenho semelhante. No entanto, efeitos de aberrações de lente podem reduzir o desempenho de MTF de lente a partir de ideal e, portanto, aumentar a amplitude de resposta de PSF. Portanto, um tamanho de pixel mais amplo pode ser usado para ser compatível com a lente, devido ao fato de que a resolução de lente é menor que aquela do desempenho ideal. Se o desempenho de lente estiver próximo do limite de difração, que seria semelhante ao desempenho da lente ideal (presumindo-se nenhuma aberração e uma passagem circular), então, um pixel menor pode ser usado, contanto que tais lentes de alta qualidade possam ser produzidas confiavelmente na fabricação, por exemplo, fabricação em massa para o uso em um dispositivo móvel comum.
[0185] A óptica em pastilha, de modo inerente,tem a capacidade para produzir precisão de alinhamento de lente superior, com rendimento superior, que aquele dos projetos de cilindro de pilha atuais. Quanto mais amplo o tamanho de pixel, menor a resolução de MTF de pixel pode ser, simplesmente devido à teoria de amostragem. Os pixels mais amplos podem diminuir a taxa de amostragem de Nyquist, que pode resultar em suavização de imagem maior ou a necessidade de diminuir a resolução de MTF de imagem de lente em torno de Nyquist a fim de reduzir os efeitos de suavização.
[0186] Em conclusão, são apresentados métodos e sistemas no presente documento que podem ser usados para implantar conjuntos de lentes produzidos em massa de foco automático de alto desempenho com a capacidade para serem compatíveis com a densidade de pixel de sensor de imagem presente e futura de aproximadamente 1,4 μm para pixels de submicrômetro. Por exemplo, afixando-se L6 mais o prisma de sensor ao sensor ou vidro de cobertura de sensor pode-se focar a lente e alcançar o desempenho de quase limite de difração adequado o suficiente para acumular pixels pelo menos tão pequenos quanto 0,5 μm quadrado. As soluções anteriores para mover os elementos de lente com o objetivo de alterar o comprimento focal podem não fornecer o desempenho necessário para alcançar o desempenho da câmera de matriz conforme descrito no presente documento para o conjunto de lentes L1 a L6. Portanto, os métodos são necessários para abordar uma boa solução para a produção em massa de óptica dobrada. Uma modalidade fornecida mostra que isso pode ser feito. Os sistemas e os métodos descritos no presente documento implantam um corretor de campo, exigem conjunto de precisão do prisma de sensor ou espelho e um projeto de atuação/movimento de foco automático que fornecerá o desempenho de precisão necessário conforme descrito acima.
[0187] Terminologia
[0188] As implantações reveladas no presente documento fornecem sistemas, métodos e aparelhos para foco automático em um sistema de óptica dobrada de multissensor. Uma pessoa versada na técnica reconhecerá que essas modalidades podem ser implantadas em hardware, software, firmware ou qualquer combinação dos mesmos.
[0189] Em algumas modalidades, os circuitos, processos e sistemas discutidos acima podem ser utilizados em um dispositivo de comunicação sem fio. O dispositivo de comunicação sem fio pode ser um tipo de dispositivo eletrônico usado para se comunicar de modo sem fio com outros dispositivos eletrônicos. Exemplos de dispositivo de comunicação sem fios incluem telefones celulares, telefones inteligentes, Assistentes Digitais Pessoais (PDAs), leitores eletrônicos, sistemas de jogos, reprodutores de música, computadores do tipo netbook, modems sem fio, computadores do tipo laptop, dispositivos do tipo tablet, etc.
[0190] O dispositivo de comunicação sem fio pode incluir um ou mais sensores de imagem, dois ou mais processadores de sinal de imagem, uma memória que inclui instruções ou módulos para realizar os processos discutidos acima. O dispositivo também pode ter dados, instruções e/ou dados de carregamento de processador a partir da memória, uma ou mais interfaces de comunicação, um ou mais dispositivos de entrada, um ou mais dispositivos de saída tal como um dispositivo de exibição e uma fonte/interface de alimentação. O dispositivo de comunicação sem fio pode incluir adicionalmente um transmissor e um receptor. O transmissor e o receptor podem ser chamados conjuntamente de transceptor. O transceptor pode ser acoplado a uma ou mais antenas para transmitir e/ou receber sinais sem fio.
[0191] O dispositivo de comunicação sem fio pode se conectar de modo sem fio a outro dispositivo eletrônico (por exemplo, estação-base). Um dispositivo de comunicação sem fio pode ser chamado, alternativamente, de dispositivo móvel, estação móvel, estação de assinante, equipamento de usuário (UE), estação remota, terminal de acesso, terminal móvel, terminal, terminal de usuário, unidade de assinante, etc. Exemplos de dispositivo de comunicação sem fios incluem computadores do tipo laptop ou do tipo desktop, telefones celulares, telefones inteligentes, modems sem fio, leitores eletrônicos, dispositivos do tipo tablet, sistemas de jogos, etc. Dispositivo de comunicação sem fios podem operar de acordo com um ou mais padrões industriais tal como o Projeto de Parceria de Terceira Geração (3GPP). Desse modo, o termo geral “dispositivo de comunicação sem fio” pode incluir dispositivos de comunicação sem fio descritos com nomenclaturas variantes de acordo com padrões industriais (por exemplo, terminal de acesso, equipamento de usuário (UE), terminal remoto, etc.).
[0192] As funções descritas no presente documento podem ser armazenadas como uma ou mais instruções em uma mídia legível por processador ou legível por computador. O termo “meio legível por computador” se refere a qualquer meio disponível que pode ser acessado por um computador ou um processador. A título de exemplo, e não de limitação, tal mídia legível por computador podem compreender RAM, ROM, EEPROM, memória flash, CD-ROM ou outro armazenamento de disco óptico, armazenamento de disco magnético ou outros dispositivos de armazenamento magnético, ou qualquer outra mídia que possa ser usada para armazenar o código de programa desejado na forma de instruções ou estruturas de dados e que possa ser acessado por um computador. Disco magnético e disco óptico, conforme usados no presente documento, incluem disco compacto (CD), disco laser, disco óptico, disco versátil digital (DVD), disquete e disco Blu-ray®, em que os discos magnéticos normalmente reproduzem os dados de modo magnético, enquanto os discos ópticos reproduzem os dados de modo óptico com lasers. Deve-se observar que uma mídia legível por computador pode ser tangível e não transitória. O termo “produto de programa de computador “ se refere a um dispositivo ou processador de computação em combinação com o código ou instruções (por exemplo, um “programa”) que pode ser executado, processado ou computado pelo dispositivo ou processador de computação. Conforme usado no presente documento, o termo “código” pode se referir a software, instruções, código ou dados que é/são executáveis por um dispositivo ou processador de computação.
[0193] Os métodos revelados no presente compreendem uma ou mais etapas ou ações para alcançar o método descrito. As etapas e/ou ações do método podem ser intercambiadas entre si sem se afastar do escopo das reivindicações. Em outras palavras, a menos que uma ordem específica das etapas e ações seja exigida para a operação apropriada do método que está sendo descrito, a ordem e/ou o uso das etapas e/ou ações específicas pode ser modificada sem se afastar do escopo das reivindicações.
[0194] Deve-se observar que os termos “acoplar”, “que acopla”, “acoplado” ou outras variações da palavra acoplar conforme usados no presente documento podem indicar uma conexão indireta ou uma conexão direta. Por exemplo, se um primeiro componente for “acoplado” a um segundo componente, o primeiro componente pode ser conectado diretamente ao segundo componente ou conectado diretamente ao segundo componente. Conforme usado no presente documento, o termo “pluralidade” detona dois ou mais. Por exemplo, uma pluralidade de componentes indica dois ou mais componentes.
[0195] O termo “determinar” engloba uma variedade ampla de ações e, portanto, “ determinar” pode incluir calcular, computar, processar, derivar, investigar, buscar (por exemplo, buscar em uma tabela, um banco de dados ou outra estrutura de dados), averiguar e semelhantes. Também, “determinar” pode incluir receber (por exemplo, receber informações), acessar (por exemplo, acessar dados em uma memória) e similares. Também, “determinar” pode incluir resolver, selecionar, escolher, estabelecer e similares.
[0196] A frase “com base em” não significa “com base apenas em “, salvo caso expressamente especificado outro modo. Em outras palavras, a frase “com base em” descreve tanto “com base apenas em “ quanto “com base pelo menos em”.
[0197] Na descrição supracitada, são dados detalhes específicos para fornecer um entendido completo dos exemplos. No entanto, deve ser entendido por uma pessoa de habilidade comum na técnica que os exemplos podem ser praticados sem esses detalhes específicos. Por exemplo, componentes/dispositivos elétricos podem ser mostrados em diagramas de bloco a fim de não obscurecer os exemplos com detalhes desnecessários. Em outros exemplos, tais componentes, outras estruturas e conjuntos de procedimentos podem ser mostrados em detalhes para explicar adicionalmente os exemplos.
[0198] Os títulos são incluídos no presente documento para referência e para ajudar a localizar diversas seções. Esses títulos não se destinam a limitar o escopo dos conceitos descritos com relação aos mesmos. Tais conceitos pode ter aplicabilidade ao longo de todo relatório descritivo. Deve-se observar também que os exemplos podem ser descritos como um processo, que é retratado como um fluxograma, um diagrama de fluxo, um diagrama de estado finito, um diagrama de estrutura ou um diagrama de blocos. Embora um fluxograma possa descrever as operações como um processo sequencial, muitas das operações podem ser realizadas em paralelo ou concomitantemente, e o processo pode ser repetido. Além disso, a ordem das operações pode ser reorganizada. Um processo é terminado quando suas operações são completadas. Um processo pode corresponder a um método, uma função, um procedimento, uma sub-rotina, um subprograma, etc. Quando um processo corresponder a uma função de software, sua terminação corresponde a um retorno da função para a função de chamamento ou para a função principal.
[0199] A descrição anterior das implantações reveladas é fornecida para permitir que qualquer indivíduo versado na técnica produza ou use as modalidades da invenção. Diversas modificações em tais implantações ficarão prontamente evidentes para os elementos versados na técnica e os princípios genéricos definidos neste documento podem ser aplicados a outras implantações sem que se afaste do espírito ou escopo das modalidades da invenção. Desse modo, as modalidades não se destinam intenção a limitar às implantações mostradas no presente documento, porém, deve estar de acordo com o escopo mais amplo, consistente com os princípios e recursos inovadores revelados na presente invenção.

Claims (14)

1. Sistema de imageamento (100A, 100B) compreendendo: pelo menos uma câmera configurada para capturar uma cena de imagem alvo, a pelo menos uma câmera compreendendo um sensor de imagem (105, 125) compreendendo um arranjo de elementos de sensor; uma superfície de dobramento de luz primária (122, 124) configurada para direcionar uma porção de luz recebida em uma primeira direção; meios (110, 135) para redirecionar luz configurado para redirecionar luz recebida da superfície de dobramento de luz primária em uma segunda direção ao sensor de imagem; um conjunto de lentes (115, L6; 130, L6) compreendendo: pelo menos uma lente estacionária (L6) posicionada entre os meios para redirecionar luz e o sensor de imagem, a pelo menos uma lente estacionária possuindo uma primeira superfície mecanicamente acoplada aos meios para redirecionar luz e uma segunda superfície; e pelo menos uma lente móvel (115, 130) posicionada entre a superfície de dobramento de luz primária e os meios para redirecionar luz; e meios (180, 181) para mover a pelo menos uma lente móvel para focar luz propagando através do conjuno de lente no sensor de imagem, caracterizado pela segunda superfície ser mecanicamente acoplada ao sensor de imagem e pela pelo menos uma lente estacionária compreender uma lente corretora de campo.
2. Sistema de imageamento, de acordo com a reivindicação 1, caracterizado pelos meios para redirecionar luz compreender uma superfície de saída através da qual meios para redirecionar luz para redirecionar luz na segunda direção propagam na direção do sensor de imagem, e pela pelo menos uma lente estacionária estar conectada à superfície de saída.
3. Sistema de imageamento, de acordo com a reivindicação 1, caracteri zado por compreender adicionalmente meios (106, 126) para proteger o sensor de imagem disposto entre o sensor de imagem e a pelo menos uma lente estacionária.
4. Sistema de imageamento, de acordo com a reivindicação 3, caracterizado pelos meios para proteger o sensor de imagem compreender um vidro de cobertura.
5. Sistema de imageamento, de acordo com a reivindicação 4, caracterizado pelo vidro de cobertura compreender uma primeira superfície de vidro de cobertura acoplado a pelo menos uma lente estacionária.
6. Sistema de imageamento, de acordo com a reivindicação 5, caracterizado pelo vidro de cobertura compreender uma segunda superfície de vidro de cobertura acoplado ao sensor de imagem.
7. Sistema de imageamento, de acordo com a reivindicação 4, caracterizado pelos meios para redirecionar luz, a pelo menos uma lente estacionária, o vidro de cobertura e o sensor de imagem serem mecanicamente acoplados juntos para serem estacionários um em relação ao outro.
8. Sistema de imageamento, de acordo com a reivindicação 1, caracterizado pela pelo menos uma lente estacionária compreender: uma lente planocôncava possuindo uma superfície substancialmente plana disposta paralela ao sensor de imagem e próxima ao elemento óptico, e uma superfície côncava disposta oposta à superfície substancialmente plana e disposta próxima ao sensor de imagem.
9. Sistema de imageamento, de acordo com a reivindicação 1, caracterizado pelos meios para redirecionar luz compreenderem um prisma.
10. Sistema de imageamento, de acordo com a reivindicação 1, caracterizado pelos meios para redirecionar luz compreenderem um espelho.
11. Sistema de imageamento, de acordo com a reivindicação 1, caracteri zado pela pelo menos uma câmera compreender adicionalmente pelo menos um meio (184, 185) para estabilizar a pelo menos uma lente móvel acoplada entre o acionador e a pelo menos uma lente móvel, o pelo menos um meio para estabilizar posicionado para engatar deslizavelmente uma uma superfície (186) dentro da câmera para restringir movimento de pelo menos uma lente móvel longe de um eixo óptico (121, 123) ou girando em torno do eixo óptio, o eixo óptico sendo substancialmente paralelo à primeira direção.
12. Sistema de imageamento, de acordo com a reivindicação 1, caracteri zado pela pelo menos uma câmera compreender uma pluralidade de câmeras (215a-n) configuradas para capturar uma pluralidade correspondente de porções da cena de imagem alvo, e pelo sistema de imageamento compreender adicionalmente um processador (220) configurado para gerar uma imagem final da cena de imagem alvo com base pelo menos parcialmente na pluralidade correspondente de porções.
13. Método de capturar uma cena de imagem alvo com pelo menos uma câmera possuindo um sensor de imagem (105, 125) compreendendo um arranjo de elementos de sensor e um conjunto de lentes (115, L6; 130, L6), compreendendo: direcionar uma porção de luz recebida em uma primeira direção usando uma superfície de dobramento de luz primária (122, 124); redirecionar luz recebida da superfície de dobramento de luz primária em uma segunda direção usando um elemento óptico possuindo uma superfície de dobramento de luz secundária (110, 135); corrigir a luz redirecionada usando pelo menos uma lente estacionária (L6) do dito conjunto de lentes posicionada entre a superfície de dobramento de luz secundária e o sensor de imagem, a pelo menos uma lente estacionária possuindo uma primeira superfície mecanicamente acoplada ao elemento óptico e uma segunda superfície; e focar a pelo menos uma câmera na cena da imagem alvo movendo pelo menos uma lente móvel do conjunto de lentes usando um acionador (180, 181) enquanto mantendo o posicionamento relativo do elemento óptico, a pelo menos uma lente estacionária e o sensor de imagem, focando assim a luz propagando através do conjunto de lentes no sensor de imagem, em que a pelo menos uma lente móvel é posicionada entre a superfície de dobramento de luz primária e o elemento ópico, caracterizado pela segunda superfície ser mecanicamente acoplada ao sensor de imagem e pela pelo menos uma lente estacionária compreender uma lente corretora de campo.
14. Método, de acordo com a reivindicação 13, caracteri zado pela pelo menos uma câmera compreender uma pluralidade de câmeras (215a-n), e pelo método compreender adicionalmente receber imagens da pluralidade de câmeras e formar uma imagem compreendendo pelo menos uma porção das imagens recebidas da pluralidade de câmeras.
BR112016023095-7A 2014-04-04 2015-04-02 Foco automático em sistema multicâmera de óptica dobrada discreto BR112016023095B1 (pt)

Applications Claiming Priority (11)

Application Number Priority Date Filing Date Title
US201461975669P 2014-04-04 2014-04-04
US201461975680P 2014-04-04 2014-04-04
US61/975,680 2014-04-04
US61/975,669 2014-04-04
US201462015364P 2014-06-20 2014-06-20
US62/015,364 2014-06-20
US14/526,104 US9374516B2 (en) 2014-04-04 2014-10-28 Auto-focus in low-profile folded optics multi-camera system
US14/526,104 2014-10-28
US14/676,669 US9383550B2 (en) 2014-04-04 2015-04-01 Auto-focus in low-profile folded optics multi-camera system
US14/676,669 2015-04-01
PCT/US2015/024121 WO2015153901A1 (en) 2014-04-04 2015-04-02 Auto-focus in low-profile folded optics multi-camera system

Publications (2)

Publication Number Publication Date
BR112016023095A2 BR112016023095A2 (pt) 2017-08-15
BR112016023095B1 true BR112016023095B1 (pt) 2022-05-24

Family

ID=54209632

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112016023095-7A BR112016023095B1 (pt) 2014-04-04 2015-04-02 Foco automático em sistema multicâmera de óptica dobrada discreto

Country Status (8)

Country Link
US (2) US9383550B2 (pt)
EP (1) EP3126891B1 (pt)
JP (1) JP2017515144A (pt)
KR (1) KR102118242B1 (pt)
CN (1) CN106164732A (pt)
BR (1) BR112016023095B1 (pt)
MX (1) MX2016012728A (pt)
WO (1) WO2015153901A1 (pt)

Families Citing this family (125)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4757340B2 (ja) * 2009-10-30 2011-08-24 シャープ株式会社 照明装置、その照明装置を備える画像読取り装置、その画像読取り装置を備える画像形成装置
US9485495B2 (en) 2010-08-09 2016-11-01 Qualcomm Incorporated Autofocus for stereo images
US9438889B2 (en) 2011-09-21 2016-09-06 Qualcomm Incorporated System and method for improving methods of manufacturing stereoscopic image sensors
US9398264B2 (en) 2012-10-19 2016-07-19 Qualcomm Incorporated Multi-camera system using folded optics
CN105556944B (zh) 2012-11-28 2019-03-08 核心光电有限公司 多孔径成像系统和方法
CN109194849B (zh) 2013-06-13 2021-01-15 核心光电有限公司 双孔径变焦数字摄影机
US9857568B2 (en) 2013-07-04 2018-01-02 Corephotonics Ltd. Miniature telephoto lens assembly
CN107748432A (zh) 2013-07-04 2018-03-02 核心光电有限公司 小型长焦透镜套件
CN109246339B (zh) 2013-08-01 2020-10-23 核心光电有限公司 用于对对象或场景进行成像的双孔径数字摄影机
US10178373B2 (en) 2013-08-16 2019-01-08 Qualcomm Incorporated Stereo yaw correction using autofocus feedback
US9383550B2 (en) 2014-04-04 2016-07-05 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US9374516B2 (en) 2014-04-04 2016-06-21 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US10013764B2 (en) 2014-06-19 2018-07-03 Qualcomm Incorporated Local adaptive histogram equalization
US9294672B2 (en) * 2014-06-20 2016-03-22 Qualcomm Incorporated Multi-camera system using folded optics free from parallax and tilt artifacts
US9549107B2 (en) 2014-06-20 2017-01-17 Qualcomm Incorporated Autofocus for folded optic array cameras
US9541740B2 (en) 2014-06-20 2017-01-10 Qualcomm Incorporated Folded optic array camera using refractive prisms
US9819863B2 (en) 2014-06-20 2017-11-14 Qualcomm Incorporated Wide field of view array camera for hemispheric and spherical imaging
US9386222B2 (en) 2014-06-20 2016-07-05 Qualcomm Incorporated Multi-camera system using folded optics free from parallax artifacts
US9392188B2 (en) 2014-08-10 2016-07-12 Corephotonics Ltd. Zoom dual-aperture camera with folded lens
US9832381B2 (en) 2014-10-31 2017-11-28 Qualcomm Incorporated Optical image stabilization for thin cameras
WO2016099099A1 (en) * 2014-12-15 2016-06-23 Samsung Electronics Co., Ltd. Image capturing device and sensing protection device
CN112327464A (zh) 2015-01-03 2021-02-05 核心光电有限公司 微型长焦镜头模块和使用该镜头模块的相机
EP3492958B1 (en) 2015-04-02 2022-03-30 Corephotonics Ltd. Dual voice coil motor structure in a dual-optical module camera
ES2908652T3 (es) * 2015-04-16 2022-05-03 Corephotonics Ltd Enfoque automático y estabilización de imagen óptica en una cámara compacta de plegado
JPWO2016181512A1 (ja) * 2015-05-12 2018-02-22 オリンパス株式会社 撮像装置、内視鏡システムおよび撮像装置の製造方法
EP3722860B1 (en) 2015-05-28 2023-04-19 Corephotonics Ltd. Bi-directional stiffness for optical image stabilization and auto-focus in a digital camera
EP3104595A1 (en) * 2015-06-08 2016-12-14 Thomson Licensing Light field imaging device
KR102143309B1 (ko) 2015-08-13 2020-08-11 코어포토닉스 리미티드 비디오 지원 및 스위칭/비스위칭 동적 제어 기능이 있는 듀얼-애퍼처 줌 카메라
WO2017037688A1 (en) 2015-09-06 2017-03-09 Corephotonics Ltd. Auto focus and optical image stabilization with roll compensation in a compact folded camera
US9659371B2 (en) * 2015-10-08 2017-05-23 Christie Digital Systems Usa, Inc. System and method for online projector-camera calibration from one or more images
KR102477092B1 (ko) * 2015-10-15 2022-12-13 삼성전자주식회사 이미지 획득 장치 및 방법
US9753255B2 (en) 2015-11-03 2017-09-05 Himax Technologies Limited Array lens system
CN106772928A (zh) * 2015-11-23 2017-05-31 奇景光电股份有限公司 阵列透镜系统
JP2017097185A (ja) * 2015-11-25 2017-06-01 奇景光電股▲分▼有限公司 アレイレンズシステム
KR102433623B1 (ko) 2015-12-29 2022-08-18 코어포토닉스 리미티드 자동 조정가능 텔레 시야(fov)를 갖는 듀얼-애퍼처 줌 디지털 카메라
EP3758356B1 (en) 2016-05-30 2021-10-20 Corephotonics Ltd. Actuator
KR102302004B1 (ko) 2016-06-19 2021-09-14 코어포토닉스 리미티드 듀얼 애퍼처 카메라 시스템에서의 프레임 동기화
US10706518B2 (en) 2016-07-07 2020-07-07 Corephotonics Ltd. Dual camera system with improved video smooth transition by image blending
KR102657464B1 (ko) 2016-07-07 2024-04-12 코어포토닉스 리미티드 폴디드 옵틱용 선형 볼 가이드 보이스 코일 모터
TWI616675B (zh) 2016-07-14 2018-03-01 大立光電股份有限公司 光學攝像系統組、取像裝置及電子裝置
US10277816B2 (en) * 2016-09-28 2019-04-30 Qualcomm Incorporated Systems and methods to reduce actuator power leakage
TWI594037B (zh) * 2016-11-24 2017-08-01 大立光電股份有限公司 影像擷取鏡頭組、取像裝置及電子裝置
WO2018122650A1 (en) 2016-12-28 2018-07-05 Corephotonics Ltd. Folded camera structure with an extended light-folding-element scanning range
CN106791330B (zh) 2017-01-11 2019-08-13 Oppo广东移动通信有限公司 摄像头模组及终端
CN106791329B (zh) 2017-01-11 2019-09-13 Oppo广东移动通信有限公司 摄像头模组及终端
JP7057364B2 (ja) 2017-01-12 2022-04-19 コアフォトニクス リミテッド コンパクト屈曲式カメラ
CN115857135A (zh) * 2017-02-23 2023-03-28 核心光电有限公司 折叠式摄影机透镜设计
TWI781985B (zh) * 2017-03-09 2022-11-01 美商康寧公司 具有自動對焦與光學圖像穩定功能的相機模組
DE102017204035B3 (de) 2017-03-10 2018-09-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multiaperturabbildungsvorrichtung, Abbildungssystem und Verfahren zum Bereitstellen einer Multiaperturabbildungsvorrichtung
KR102530535B1 (ko) 2017-03-15 2023-05-08 코어포토닉스 리미티드 파노라마 스캐닝 범위를 갖는 카메라
CN110780423A (zh) * 2017-03-24 2020-02-11 玉晶光电(厦门)有限公司 光学成像系统
DE102017206429A1 (de) * 2017-04-13 2018-10-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multiaperturabbildungsvorrichtung, Abbildungssystem und Verfahren zum Bereitstellen einer Multiaperturabbildungsvorrichtung
DE102017206442B4 (de) 2017-04-13 2021-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zur Abbildung von Teilgesichtsfeldern, Multiaperturabbildungsvorrichtung und Verfahren zum Bereitstellen derselben
KR20190022522A (ko) 2017-07-07 2019-03-06 코어포토닉스 리미티드 미광을 방지하기 위한 접이식 카메라 프리즘 설계
CN113031218A (zh) 2017-07-23 2021-06-25 核心光电有限公司 折叠式摄影机以及其折叠透镜套件
CN107395809B (zh) * 2017-08-15 2019-08-20 维沃移动通信有限公司 一种光线传输装置和移动终端
KR101956705B1 (ko) * 2017-08-21 2019-03-11 삼성전기주식회사 촬상 광학계
US10904512B2 (en) 2017-09-06 2021-01-26 Corephotonics Ltd. Combined stereoscopic and phase detection depth mapping in a dual aperture camera
US10951834B2 (en) 2017-10-03 2021-03-16 Corephotonics Ltd. Synthetically enlarged camera aperture
WO2019102313A1 (en) * 2017-11-23 2019-05-31 Corephotonics Ltd. Compact folded camera structure
US10969652B2 (en) 2018-01-10 2021-04-06 Apple Inc. Camera with folded optics having moveable lens
KR20240019388A (ko) 2018-01-26 2024-02-14 애플 인크. 광학기기를 이동시키기 위한 액추에이터를 갖는 접이식 카메라
WO2019150188A1 (en) * 2018-02-05 2019-08-08 Corephotonics Ltd. Reduced height penalty for folded camera
US11061213B2 (en) 2018-02-07 2021-07-13 Apple Inc. Folded camera
TWI703367B (zh) * 2018-02-08 2020-09-01 先進光電科技股份有限公司 光學成像系統
CN113568251B (zh) 2018-02-12 2022-08-30 核心光电有限公司 数字摄像机及用于提供聚焦及补偿摄像机倾斜的方法
EP3759538A4 (en) 2018-03-02 2021-05-05 Corephotonics Ltd. SPACER DESIGN TO REDUCE SCATTERED LIGHT
US10694168B2 (en) 2018-04-22 2020-06-23 Corephotonics Ltd. System and method for mitigating or preventing eye damage from structured light IR/NIR projector systems
KR20230098686A (ko) * 2018-04-23 2023-07-04 코어포토닉스 리미티드 연장된 2 자유도 회전 범위를 갖는 광학 경로 폴딩 요소
EP3562285A1 (de) * 2018-04-25 2019-10-30 Siemens Aktiengesellschaft Verbinden elektrischer bauelemente
KR20230019212A (ko) * 2018-05-14 2023-02-07 코어포토닉스 리미티드 폴디드 카메라 렌즈 설계
WO2019225979A1 (en) * 2018-05-23 2019-11-28 Lg Electronics Inc. Camera and terminal including the same
US10884237B2 (en) 2018-05-23 2021-01-05 Lg Electronics Inc. Camera with an image sensor generating an image signal based on input light reflected by a prism apparatus and passing through lens apparatus, and terminal including the same
US11314147B1 (en) 2018-05-31 2022-04-26 Apple Inc. Folded camera with actuator for moving optics
EP3809685A4 (en) * 2018-06-12 2021-09-01 Ningbo Sunny Opotech Co., Ltd. CAMERA UNIT WITH LIGHT DEFLECTION MECHANISM AND ITS APPLICATION
CN208386734U (zh) * 2018-06-14 2019-01-15 Oppo广东移动通信有限公司 摄像头模组和电子装置
KR102289149B1 (ko) 2018-08-04 2021-08-12 코어포토닉스 리미티드 카메라 위의 전환 가능한 연속 디스플레이 정보 시스템
US11635596B2 (en) 2018-08-22 2023-04-25 Corephotonics Ltd. Two-state zoom folded camera
US11340388B2 (en) * 2018-08-31 2022-05-24 Apple Inc. Power prism for folded lenses
TWI741404B (zh) * 2018-11-05 2021-10-01 以色列商核心光電有限公司 摺疊相機透鏡設計
CN111615822B (zh) 2019-01-03 2022-02-08 核心光电有限公司 一种双重相机
KR102242437B1 (ko) 2019-01-07 2021-04-20 코어포토닉스 리미티드 슬라이딩 조인트를 갖는 회전 메커니즘
CN109633854B (zh) * 2019-01-08 2020-09-29 瑞声通讯科技(常州)有限公司 一种图像采集器及移动电子设备
US11698526B2 (en) * 2019-02-08 2023-07-11 The Charles Stark Draper Laboratory, Inc. Multi-channel optical system
KR102424008B1 (ko) 2019-02-25 2022-07-22 코어포토닉스 리미티드 적어도 하나의 2 상태 줌 카메라를 갖는 멀티-애퍼처 카메라
CN113891059B (zh) 2019-03-09 2024-02-13 核心光电有限公司 对双摄像机进行立体校准的方法
US11070709B2 (en) * 2019-04-12 2021-07-20 Asm Technology Singapore Pte Ltd Aligning an image sensor relative to a lens module
US10567749B1 (en) * 2019-05-03 2020-02-18 Zf Active Safety And Electronics Us Llc Modulation transfer function evaluation for red/clear filtered optical devices
JP6951828B2 (ja) * 2019-06-01 2021-10-20 エーエーシー オプティックス ソリューションズ ピーティーイー リミテッド ペリスコープレンズモジュール及びペリスコープレンズモジュールに適用されるプリズム装置
KR102515482B1 (ko) 2019-07-31 2023-03-29 코어포토닉스 리미티드 카메라 패닝 또는 모션에서 배경 블러링을 생성하는 시스템 및 방법
KR102288615B1 (ko) 2019-08-21 2021-08-11 코어포토닉스 리미티드 큰 센서 포맷을 위한 작은 총 트랙 길이
EP4030233A4 (en) * 2019-09-18 2022-11-23 Ningbo Sunny Opotech Co., Ltd. PERISCOPE CAMERA MODULE AND ELECTRONIC DEVICE
KR102356807B1 (ko) 2019-10-11 2022-01-28 삼성전기주식회사 카메라 모듈
US11659135B2 (en) 2019-10-30 2023-05-23 Corephotonics Ltd. Slow or fast motion video using depth information
US11656538B2 (en) 2019-11-25 2023-05-23 Corephotonics Ltd. Folded zoom camera module with adaptive aperture
US11949976B2 (en) 2019-12-09 2024-04-02 Corephotonics Ltd. Systems and methods for obtaining a smart panoramic image
US11770618B2 (en) 2019-12-09 2023-09-26 Corephotonics Ltd. Systems and methods for obtaining a smart panoramic image
US11693221B2 (en) 2019-12-25 2023-07-04 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Camera module, camera assembly, and electronic device
CN114667729B (zh) 2020-01-08 2024-04-19 核心光电有限公司 多孔变焦数码摄像头及其使用方法
US11829001B2 (en) * 2020-01-22 2023-11-28 Tdk Taiwan Corp. Optical system
TWI730637B (zh) * 2020-02-24 2021-06-11 大陽科技股份有限公司 相機模組與電子裝置
EP4097773A4 (en) 2020-04-26 2023-11-01 Corephotonics Ltd. TEMPERATURE CONTROL FOR HALL BAR SENSOR CORRECTION
CN117372250A (zh) 2020-05-17 2024-01-09 核心光电有限公司 全视场参考图像的图像拼接
CN117518313A (zh) 2020-05-30 2024-02-06 核心光电有限公司 用于获得超微距图像的系统
US11516391B2 (en) * 2020-06-18 2022-11-29 Qualcomm Incorporated Multiple camera system for wide angle imaging
US11910089B2 (en) 2020-07-15 2024-02-20 Corephotonics Lid. Point of view aberrations correction in a scanning folded camera
US11637977B2 (en) 2020-07-15 2023-04-25 Corephotonics Ltd. Image sensors and sensing methods to obtain time-of-flight and phase detection information
WO2022023855A1 (en) 2020-07-31 2022-02-03 Corephotonics Ltd. Folded macro-tele camera lens designs
CN114270145B (zh) 2020-07-31 2024-05-17 核心光电有限公司 用于大行程线性位置感测的霍尔传感器-磁体几何结构
KR102598070B1 (ko) 2020-08-12 2023-11-02 코어포토닉스 리미티드 스캐닝 폴디드 카메라의 광학 이미지 안정화
CN112037128B (zh) * 2020-08-21 2023-11-03 苏州巨能图像检测技术有限公司 一种全景视频拼接方法
CN111968099B (zh) * 2020-08-24 2023-01-24 中国科学院长春光学精密机械与物理研究所 一种大口径拼接望远镜共相方法、装置、设备及存储介质
CN117420665A (zh) 2020-09-18 2024-01-19 核心光电有限公司 手持式电子装置
US11709347B2 (en) 2020-09-24 2023-07-25 Apple Inc. Folded camera with autofocus and optical image stabilization systems
US20220091398A1 (en) * 2020-09-24 2022-03-24 Apple Inc. Telephoto Camera with a Stationary Optics Assembly
US11283978B1 (en) * 2020-10-15 2022-03-22 Asm Technology Singapore Pte Ltd Aligning lens elements in a lens module relative to an image sensor
US11481917B2 (en) * 2020-10-21 2022-10-25 Faro Technologies, Inc. Compensation of three-dimensional measuring instrument having an autofocus camera
US11763491B2 (en) 2020-10-21 2023-09-19 Faro Technologies, Inc. Compensation of three-dimensional measuring instrument having an autofocus camera
CN114868065A (zh) 2020-12-01 2022-08-05 核心光电有限公司 具有连续自适应变焦系数的折叠摄像机
EP4091008A4 (en) 2021-01-25 2023-08-16 Corephotonics Ltd. SLIM WIDE-ANGLE POP-OUT CAMERA LENSES
CN113382139B (zh) * 2021-05-28 2022-09-06 南昌欧菲光电技术有限公司 驱动装置、摄像模组及电子设备
CN113532381A (zh) * 2021-08-05 2021-10-22 湖南旺轩科技有限公司 一种风塔沉降测定装置及测定方法
US20230071642A1 (en) * 2021-09-09 2023-03-09 Sintai Optical (Shenzhen) Co., Ltd. Lens Device
CN113784027B (zh) * 2021-09-09 2023-06-23 东莞华贝电子科技有限公司 一种潜望式摄像头组件及电子设备
WO2023079403A1 (en) 2021-11-02 2023-05-11 Corephotonics Ltd. Compact double folded tele cameras

Family Cites Families (308)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA927646A (en) 1970-09-09 1973-06-05 Watanuki Toshio Camera for taking hemispherical motion picture
US4114171A (en) 1976-04-06 1978-09-12 Vivitar Corporation Reflex camera with internal zoom lens
US4437745A (en) 1982-09-30 1984-03-20 Stephen Hajnal Three dimensional camera system
JPS60213178A (ja) 1984-04-06 1985-10-25 Olympus Optical Co Ltd 撮像装置
GB8430980D0 (en) 1984-12-07 1985-01-16 Robinson M Generation of apparently three-dimensional images
US4639586A (en) 1985-02-06 1987-01-27 The United States Of America As Represented By The Secretary Of The Air Force Optically phased laser transmitter
US4740780A (en) 1985-06-24 1988-04-26 Gec Avionics, Inc. Head-up display for automobile
US5214462A (en) 1986-05-12 1993-05-25 Asahi Kogaku Kogyo Kabushiki Kaisha Lens shutter camera including zoom lens and barrier mechanisms
US4890314A (en) 1988-08-26 1989-12-26 Bell Communications Research, Inc. Teleconference facility with high resolution video display
US6031892A (en) 1989-12-05 2000-02-29 University Of Massachusetts Medical Center System for quantitative radiographic imaging
US5194959A (en) 1989-12-21 1993-03-16 Ricoh Company, Ltd. and Nippon Telegraph and Telephone Corporation Image forming apparatus for forming image corresponding to subject, by dividing optical image corresponding to the subject into plural adjacent optical image parts
US5016109A (en) 1990-07-02 1991-05-14 Bell South Corporation Apparatus and method for segmenting a field of view into contiguous, non-overlapping, vertical and horizontal sub-fields
US5142357A (en) 1990-10-11 1992-08-25 Stereographics Corp. Stereoscopic video camera with image sensors having variable effective position
US5063441A (en) 1990-10-11 1991-11-05 Stereographics Corporation Stereoscopic video cameras with image sensors having variable effective position
US5207000A (en) 1991-06-14 1993-05-04 Industrial Technology Research Institute Method and apparatus useful for determining an angle between a virtual optical axis and a planar surface
US5231461A (en) 1991-12-09 1993-07-27 Hughes Danbury Optical Systems, Inc. Solar monochromator for filter calibration
US5926411A (en) * 1991-12-30 1999-07-20 Ioptics Incorporated Optical random access memory
US5686960A (en) 1992-01-14 1997-11-11 Michael Sussman Image input device having optical deflection elements for capturing multiple sub-images
DE4212271C1 (pt) 1992-04-11 1993-07-08 Deutsche Forschungsanstalt Fuer Luft- Und Raumfahrt E.V., 5300 Bonn, De
US5243413A (en) 1992-09-02 1993-09-07 At&T Bell Laboratories Color parallax-free camera and display
US5313542A (en) 1992-11-30 1994-05-17 Breault Research Organization, Inc. Apparatus and method of rapidly measuring hemispherical scattered or radiated light
JP2888713B2 (ja) 1993-01-14 1999-05-10 キヤノン株式会社 複眼撮像装置
EP0610605B1 (en) 1993-02-11 1997-07-16 Agfa-Gevaert N.V. Method of recognising an irradiation field
US5586063A (en) 1993-09-01 1996-12-17 Hardin; Larry C. Optical range and speed detection system
US5614941A (en) 1993-11-24 1997-03-25 Hines; Stephen P. Multi-image autostereoscopic imaging system
GB2284273B (en) 1993-11-29 1997-01-08 Hadland Photonics Limited Electronic high speed camera incorporating a beam splitter
JPH089424A (ja) 1994-06-20 1996-01-12 Sanyo Electric Co Ltd 立体画像撮像制御装置
JP3186448B2 (ja) 1994-08-01 2001-07-11 ミノルタ株式会社 立体テレビカメラ
JP3458486B2 (ja) 1994-10-25 2003-10-20 松下電器産業株式会社 全方位撮影装置及び全方位画像合成装置
KR100235343B1 (ko) 1994-12-29 1999-12-15 전주범 영역분할 기법을 이용한 동영상신호 부호화기의 움직임 벡터 측정장치
JPH08194274A (ja) 1995-01-13 1996-07-30 Olympus Optical Co Ltd 立体撮像装置
US5606627A (en) 1995-01-24 1997-02-25 Eotek Inc. Automated analytic stereo comparator
US5990934A (en) 1995-04-28 1999-11-23 Lucent Technologies, Inc. Method and system for panoramic viewing
US5745305A (en) 1995-04-28 1998-04-28 Lucent Technologies Inc. Panoramic viewing apparatus
US5793527A (en) 1995-06-30 1998-08-11 Lucent Technologies Inc. High resolution viewing system
US5539483A (en) 1995-06-30 1996-07-23 At&T Corp. Panoramic projection apparatus
US5903306A (en) 1995-08-16 1999-05-11 Westinghouse Savannah River Company Constrained space camera assembly
US6111702A (en) 1995-11-30 2000-08-29 Lucent Technologies Inc. Panoramic viewing system with offset virtual optical centers
US6115176A (en) 1995-11-30 2000-09-05 Lucent Technologies Inc. Spherical viewing/projection apparatus
US6141034A (en) 1995-12-15 2000-10-31 Immersive Media Co. Immersive imaging method and apparatus
JPH09214992A (ja) 1996-02-06 1997-08-15 Asahi Optical Co Ltd 撮像装置
US5640222A (en) 1996-03-15 1997-06-17 Paul; Eddie Method and apparatus for producing stereoscopic images
US6850279B1 (en) 1996-06-18 2005-02-01 Sony Corporation Optical image recording system, and associated processing system
US5721585A (en) 1996-08-08 1998-02-24 Keast; Jeffrey D. Digital video panoramic image capture and display system
JPH10142490A (ja) 1996-11-15 1998-05-29 Canon Inc 環境認識装置及びカメラ
AU6515798A (en) 1997-04-16 1998-11-11 Isight Ltd. Video teleconferencing
US7028899B2 (en) 1999-06-07 2006-04-18 Metrologic Instruments, Inc. Method of speckle-noise pattern reduction and apparatus therefore based on reducing the temporal-coherence of the planar laser illumination beam before it illuminates the target object by applying temporal phase modulation techniques during the transmission of the plib towards the target
DE19903807A1 (de) 1998-05-05 1999-11-11 Zeiss Carl Fa Beleuchtungssystem insbesondere für die EUV-Lithographie
US6128143A (en) 1998-08-28 2000-10-03 Lucent Technologies Inc. Panoramic viewing system with support stand
US6195204B1 (en) 1998-08-28 2001-02-27 Lucent Technologies Inc. Compact high resolution panoramic viewing system
US6285365B1 (en) 1998-08-28 2001-09-04 Fullview, Inc. Icon referenced panoramic image display
US6141145A (en) 1998-08-28 2000-10-31 Lucent Technologies Stereo panoramic viewing system
US6144501A (en) 1998-08-28 2000-11-07 Lucent Technologies Inc. Split mirrored panoramic image display
DE19942900B4 (de) 1998-09-08 2004-01-22 Ricoh Company, Ltd. Vorrichtung zur Korrektur von Bildfehlern, die durch ein Kameraverwackeln hervorgerufen werden
US7271803B2 (en) 1999-01-08 2007-09-18 Ricoh Company, Ltd. Method and system for simulating stereographic vision
US6611289B1 (en) 1999-01-15 2003-08-26 Yanbin Yu Digital cameras using multiple sensors with multiple lenses
US6870680B2 (en) 2001-08-17 2005-03-22 Sony Corporation Imaging device
US7015954B1 (en) 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
JP3587506B2 (ja) 1999-08-30 2004-11-10 富士重工業株式会社 ステレオカメラの調整装置
GB2354389A (en) 1999-09-15 2001-03-21 Sharp Kk Stereo images with comfortable perceived depth
GB2354390A (en) 1999-09-16 2001-03-21 Ibm Wide-angle image capture apparatus
US6650774B1 (en) 1999-10-01 2003-11-18 Microsoft Corporation Locally adapted histogram equalization
US6862364B1 (en) 1999-10-27 2005-03-01 Canon Kabushiki Kaisha Stereo image processing for radiography
US6782137B1 (en) 1999-11-24 2004-08-24 General Electric Company Digital image display improvement system and method
JP2001194114A (ja) 2000-01-14 2001-07-19 Sony Corp 画像処理装置および画像処理方法、並びにプログラム提供媒体
JP2001209037A (ja) 2000-01-26 2001-08-03 Olympus Optical Co Ltd 可変ホログラム素子及びそれらを用いた光学装置
US6823021B1 (en) 2000-10-27 2004-11-23 Greenwich Technologies Associates Method and apparatus for space division multiple access receiver
US6701081B1 (en) 2000-06-06 2004-03-02 Air Controls, Inc. Dual camera mount for stereo imaging
US6768509B1 (en) 2000-06-12 2004-07-27 Intel Corporation Method and apparatus for determining points of interest on an image of a camera calibration object
AU2002226873A1 (en) 2000-07-14 2002-04-08 Applied Wdm, Inc. Optical waveguide transmission devices
JP2002040584A (ja) 2000-07-28 2002-02-06 Hamamatsu Photonics Kk 高速撮像カメラ
JP2002158913A (ja) 2000-11-16 2002-05-31 Canon Inc 撮像装置及び撮像方法
IL139995A (en) 2000-11-29 2007-07-24 Rvc Llc System and method for spherical stereoscopic photographing
EP1231780A3 (en) 2001-02-07 2004-01-14 Sony Corporation Image pickup apparatus
JP2002277736A (ja) 2001-03-21 2002-09-25 Olympus Optical Co Ltd 撮像装置
US6421185B1 (en) 2001-04-16 2002-07-16 The United States Of America As Represented By The Secretary Of The Air Force Wide field-of-view imaging system using a spatial light modulator
US6628897B2 (en) 2001-06-20 2003-09-30 Sony Corporation Camera system
US20030038814A1 (en) 2001-08-27 2003-02-27 Blume Leo R. Virtual camera system for environment capture
US7116351B2 (en) 2001-10-29 2006-10-03 Sony Corporation Imaging device
JP4198449B2 (ja) 2002-02-22 2008-12-17 富士フイルム株式会社 デジタルカメラ
JP2003260025A (ja) * 2002-03-08 2003-09-16 Olympus Optical Co Ltd カプセル型内視鏡
US6768598B2 (en) 2002-04-02 2004-07-27 Sony Corporation Image pickup system
US6861633B2 (en) 2002-06-20 2005-03-01 The Aerospace Corporation Microelectromechanical system optical sensor providing bit image data of a viewed image
US7298392B2 (en) 2003-06-26 2007-11-20 Microsoft Corp. Omni-directional camera design for video conferencing
US7209161B2 (en) 2002-07-15 2007-04-24 The Boeing Company Method and apparatus for aligning a pair of digital cameras forming a three dimensional image to compensate for a physical misalignment of cameras
US7602969B2 (en) 2002-07-18 2009-10-13 Sony Corporation Imaging data processing method, imaging data processing device, and computer program
JP2004072349A (ja) 2002-08-05 2004-03-04 Canon Inc 撮像装置、及びその制御方法
US7893957B2 (en) 2002-08-28 2011-02-22 Visual Intelligence, LP Retinal array compound camera system
JP2004260787A (ja) 2002-09-09 2004-09-16 Rohm Co Ltd イメージセンサモジュール
US7084904B2 (en) 2002-09-30 2006-08-01 Microsoft Corporation Foveated wide-angle imaging system and method for capturing and viewing wide-angle images in real time
KR20050074594A (ko) * 2002-11-11 2005-07-18 코닌클리즈케 필립스 일렉트로닉스 엔.브이. 줌 렌즈, 카메라 및 휴대용 장치
AU2003302166A1 (en) 2003-01-02 2004-07-29 Covi Technologies, Inc. Optical block assembly
US6933493B2 (en) * 2003-04-07 2005-08-23 Kingpak Technology Inc. Image sensor having a photosensitive chip mounted to a metal sheet
IL155525A0 (en) 2003-04-21 2009-02-11 Yaron Mayer System and method for 3d photography and/or analysis of 3d images and/or display of 3d images
JP3709879B2 (ja) 2003-05-01 2005-10-26 日産自動車株式会社 ステレオ画像処理装置
US7463280B2 (en) 2003-06-03 2008-12-09 Steuart Iii Leonard P Digital 3D/360 degree camera system
CN1802583A (zh) 2003-06-09 2006-07-12 奥林巴斯株式会社 可变镜
US6809887B1 (en) 2003-06-13 2004-10-26 Vision Technologies, Inc Apparatus and method for acquiring uniform-resolution panoramic images
US7495694B2 (en) 2004-07-28 2009-02-24 Microsoft Corp. Omni-directional camera with calibration and up look angle improvements
US7336299B2 (en) 2003-07-03 2008-02-26 Physical Optics Corporation Panoramic video system with real-time distortion-free imaging
KR100541028B1 (ko) 2003-07-21 2006-01-11 주식회사 옵토메카 이미지 센서 및 그 제조 방법
US20050057659A1 (en) 2003-09-16 2005-03-17 Takami Hasegawa Camera image shake correcting device
US7028546B2 (en) 2003-10-21 2006-04-18 Instrumented Sensor Technology, Inc. Data recorder
US20050111106A1 (en) 2003-10-31 2005-05-26 Kazuhiro Matsumoto Optical element assembly formed of multiple optical elements such as prisms, and image pickup apparatus using the same in image pickup function section
JPWO2005081020A1 (ja) 2004-02-19 2008-05-15 キヤノン株式会社 光学機器およびビームスプリッター
US20050185711A1 (en) 2004-02-20 2005-08-25 Hanspeter Pfister 3D television system and method
GB0406730D0 (en) 2004-03-25 2004-04-28 1 Ltd Focussing method
US7068432B2 (en) * 2004-07-27 2006-06-27 Micron Technology, Inc. Controlling lens shape in a microlens array
US7593057B2 (en) 2004-07-28 2009-09-22 Microsoft Corp. Multi-view integrated camera system with housing
EP1784988A1 (en) 2004-08-06 2007-05-16 University of Washington Variable fixation viewing distance scanned light displays
WO2006026354A2 (en) 2004-08-25 2006-03-09 Newport Imaging Corporation Apparatus for multiple camera devices and method of operating same
US7039292B1 (en) 2004-09-09 2006-05-02 Rockwell Collins, Inc. Optical system for vehicle flight control
DE102004045430A1 (de) 2004-09-18 2006-05-18 Deutsche Telekom Ag Vorrichtung zur Bildstabilisierung
JP3791847B1 (ja) 2005-08-10 2006-06-28 京セラ株式会社 カメラモジュールおよび該カメラモジュールを搭載した情報端末
EP1816514B1 (en) 2004-11-15 2012-06-20 Hitachi, Ltd. Stereo camera
US7372996B2 (en) 2004-12-27 2008-05-13 Trw Automotive U.S. Llc Method and apparatus for determining the position of a vehicle seat
WO2006075528A1 (ja) 2005-01-13 2006-07-20 National University Corporation NARA Institute of Science and Technology 3次元オブジェクト計測装置
US7512262B2 (en) 2005-02-25 2009-03-31 Microsoft Corporation Stereo-based image processing
JP4177826B2 (ja) 2005-03-23 2008-11-05 株式会社東芝 画像処理装置および画像処理方法
US20060215054A1 (en) 2005-03-23 2006-09-28 Eastman Kodak Company Wide angle camera with prism array
JP2006279538A (ja) 2005-03-29 2006-10-12 Sony Corp 撮像装置
US20060238441A1 (en) 2005-04-25 2006-10-26 The Boeing Company Method and apparatus for displaying a stereoscopic image
US20070102622A1 (en) 2005-07-01 2007-05-10 Olsen Richard I Apparatus for multiple camera devices and method of operating same
US20090268983A1 (en) 2005-07-25 2009-10-29 The Regents Of The University Of California Digital imaging system and method using multiple digital image sensors to produce large high-resolution gapless mosaic images
JP5364965B2 (ja) * 2005-07-26 2013-12-11 コニカミノルタ株式会社 撮像光学系、撮像レンズ装置及びデジタル機器
JP2007081473A (ja) 2005-09-09 2007-03-29 Eastman Kodak Co 複数光学系を有する撮像装置
KR100710208B1 (ko) * 2005-09-22 2007-04-20 동부일렉트로닉스 주식회사 씨모스 이미지 센서 및 그 제조방법
US20070085903A1 (en) 2005-10-17 2007-04-19 Via Technologies, Inc. 3-d stereoscopic image display system
US20070164202A1 (en) 2005-11-16 2007-07-19 Wurz David A Large depth of field line scan camera
JP4979928B2 (ja) 2005-11-28 2012-07-18 株式会社トプコン 三次元形状演算装置及び三次元形状演算方法
KR100658145B1 (ko) * 2005-12-13 2006-12-14 삼성전기주식회사 모바일 카메라 광학계의 광학 렌즈 시스템
US8059185B2 (en) 2005-12-28 2011-11-15 Canon Kabushiki Kaisha Photographing apparatus, image display method, computer program and storage medium for acquiring a photographed image in a wide range
US7215479B1 (en) 2006-02-10 2007-05-08 Micron Technology, Inc. Integrated lens system for image sensor and method for manufacturing the same
GB2435360B (en) 2006-02-16 2009-09-23 Imagination Tech Ltd Method and apparatus for determining motion between video images
JP4844177B2 (ja) 2006-03-07 2011-12-28 株式会社ニコン ブレ補正装置及びカメラ
JP2007274542A (ja) * 2006-03-31 2007-10-18 Sony Corp 撮像装置および携帯電話機
CN101055342A (zh) 2006-04-12 2007-10-17 鸿富锦精密工业(深圳)有限公司 自动对焦镜头模组
US8433157B2 (en) 2006-05-04 2013-04-30 Thomson Licensing System and method for three-dimensional object reconstruction from two-dimensional images
CN101433077B (zh) 2006-05-05 2011-03-23 诺基亚公司 具有小高度和高分辨率的光学图像记录设备
EP2023298A4 (en) 2006-05-09 2010-07-21 Sega Corp IMAGE PROCESSING DEVICE AND IMAGE PROCESSING PROGRAM
US20080007617A1 (en) 2006-05-11 2008-01-10 Ritchey Kurtis J Volumetric panoramic sensor systems
JP4972779B2 (ja) 2006-05-30 2012-07-11 コニカミノルタアドバンストレイヤー株式会社 光学ユニットおよび撮像装置
JP5067021B2 (ja) 2006-06-01 2012-11-07 富士ゼロックス株式会社 画像形成装置、画像形成装置の組立方法及び解体方法並びに画像形成装置に用いられる仮止め部材
JP4851239B2 (ja) 2006-06-05 2012-01-11 株式会社トプコン 画像処理装置及びその処理方法
JP2008048293A (ja) 2006-08-18 2008-02-28 Kyocera Corp 撮像装置、およびその製造方法
US20080058629A1 (en) 2006-08-21 2008-03-06 University Of Washington Optical fiber scope with both non-resonant illumination and resonant collection/imaging for multiple modes of operation
DE102006044786A1 (de) 2006-09-14 2008-03-27 Schefenacker Vision Systems Germany Gmbh Kamerasystem, Verfahren zum Betreiben eines Kamerasystems und Sensoreinrichtung eines Kamerasystems
EP1912098B1 (en) 2006-10-12 2012-04-25 Carl Zeiss SMT GmbH Unit magnification projection objective
US7817354B2 (en) 2006-10-25 2010-10-19 Capsovision Inc. Panoramic imaging system
JP5040493B2 (ja) 2006-12-04 2012-10-03 ソニー株式会社 撮像装置及び撮像方法
KR100821480B1 (ko) * 2006-12-22 2008-04-11 동부일렉트로닉스 주식회사 이미지 센서 및 그의 제조방법
KR100866491B1 (ko) 2007-01-30 2008-11-03 삼성전자주식회사 영상 처리 방법 및 장치
JP4917060B2 (ja) * 2007-02-26 2012-04-18 Hoya株式会社 撮像ユニット及び携帯用電子機器
US7683962B2 (en) 2007-03-09 2010-03-23 Eastman Kodak Company Camera using multiple lenses and image sensors in a rangefinder configuration to provide a range map
US8356035B1 (en) 2007-04-10 2013-01-15 Google Inc. Association of terms with images using image similarity
JP4582423B2 (ja) 2007-04-20 2010-11-17 富士フイルム株式会社 撮像装置、画像処理装置、撮像方法、及び画像処理方法
JP5013078B2 (ja) 2007-04-24 2012-08-29 コニカミノルタアドバンストレイヤー株式会社 レンズ鏡胴及び撮像装置
US20080290435A1 (en) * 2007-05-21 2008-11-27 Micron Technology, Inc. Wafer level lens arrays for image sensor packages and the like, image sensor packages, and related methods
JP2008294819A (ja) 2007-05-25 2008-12-04 Sony Corp 撮像装置
US7860214B1 (en) 2007-06-13 2010-12-28 The United States Of America As Represented By Secretary Of Agriculture Correction of x-ray images
US20090003646A1 (en) 2007-06-29 2009-01-01 The Hong Kong University Of Science And Technology Lossless visible watermarking
US20090005112A1 (en) 2007-06-29 2009-01-01 Samsung Electronics Co., Ltd. Optical imaging system configurations for handheld devices
JPWO2009011153A1 (ja) 2007-07-13 2010-09-16 三菱電機株式会社 画像読取装置
JP4900118B2 (ja) 2007-07-31 2012-03-21 コニカミノルタオプト株式会社 カメラモジュールおよび電子機器
TWI383666B (zh) 2007-08-21 2013-01-21 Sony Taiwan Ltd 多重鏡頭相機系統之先進式動態接圖方法
JP5000428B2 (ja) * 2007-08-22 2012-08-15 Hoya株式会社 撮像装置
US7973834B2 (en) 2007-09-24 2011-07-05 Jianwen Yang Electro-optical foveated imaging and tracking system
KR20090032261A (ko) 2007-09-27 2009-04-01 삼성전자주식회사 움직임 추정에 기초하여 움직임 보상을 수행하는 영상 처리장치 및 그 방법
JP5152483B2 (ja) 2007-10-05 2013-02-27 ソニー株式会社 撮像装置
EP3836539B1 (en) 2007-10-10 2024-03-13 Gerard Dirk Smits Image projector with reflected light tracking
CN101822068B (zh) 2007-10-11 2012-05-30 皇家飞利浦电子股份有限公司 用于处理深度图的方法和设备
US20100259655A1 (en) 2007-11-01 2010-10-14 Konica Minolta Holdings, Inc. Imaging device
JP4831514B2 (ja) 2007-11-13 2011-12-07 独立行政法人情報通信研究機構 設定パラメータ最適化装置およびそのプログラム
KR100927347B1 (ko) 2007-11-13 2009-11-24 파워옵틱스 주식회사 줌렌즈 광학계
US8791984B2 (en) 2007-11-16 2014-07-29 Scallop Imaging, Llc Digital security camera
CN100465699C (zh) 2007-12-05 2009-03-04 浙江大学 利用棱镜分光渐晕补偿实现多ccd无缝拼接的光电系统
KR101349589B1 (ko) 2007-12-13 2014-01-10 엘지이노텍 주식회사 카메라 모듈
US8300086B2 (en) 2007-12-20 2012-10-30 Nokia Corporation Image processing for supporting a stereoscopic presentation
US20090185067A1 (en) 2007-12-21 2009-07-23 Stereo Display, Inc. Compact automatic focusing camera
CN101952762B (zh) * 2008-01-02 2012-11-28 加利福尼亚大学董事会 高数值孔径远程显微镜设备
US7978222B2 (en) 2008-03-01 2011-07-12 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Systems and methods for image stabilization
US7961398B2 (en) 2008-03-05 2011-06-14 Contrast Optical Design & Engineering, Inc. Multiple image camera and lens system
WO2009119370A1 (ja) 2008-03-26 2009-10-01 コニカミノルタオプト株式会社 撮像装置
EP2263373B1 (en) 2008-03-28 2014-08-13 The Trustees of Columbia University in the City of New York Generalized assorted pixel camera systems and methods
US7864336B2 (en) 2008-04-28 2011-01-04 Agilent Technologies, Inc. Compact Littrow encoder
CN101571666A (zh) 2008-04-28 2009-11-04 鸿富锦精密工业(深圳)有限公司 成像设备
US8280194B2 (en) 2008-04-29 2012-10-02 Sony Corporation Reduced hardware implementation for a two-picture depth map algorithm
US9001187B2 (en) 2009-05-11 2015-04-07 CapsoVision, Inc. Capsule imaging system having a folded optical axis
US9171221B2 (en) 2010-07-18 2015-10-27 Spatial Cam Llc Camera to track an object
CN102047651B (zh) 2008-06-02 2013-03-13 松下电器产业株式会社 生成法线信息的图像处理装置、方法及视点变换图像生成装置
JP5223486B2 (ja) 2008-06-18 2013-06-26 ソニー株式会社 電子双眼鏡
WO2010010712A1 (ja) 2008-07-24 2010-01-28 パナソニック株式会社 カメラ駆動装置
JP2010041381A (ja) 2008-08-05 2010-02-18 Nikon Corp 電子カメラ、ステレオ画像生成方法およびステレオ画像生成システム
KR100942925B1 (ko) 2008-08-11 2010-02-22 한국전자통신연구원 스테레오 비전 시스템 및 그 제어방법
EP2316054A1 (en) 2008-08-14 2011-05-04 Remotereality Corporation Three-mirror panoramic camera
US8305425B2 (en) 2008-08-22 2012-11-06 Promos Technologies, Inc. Solid-state panoramic image capture apparatus
JP2010067014A (ja) 2008-09-11 2010-03-25 Ricoh Co Ltd 画像分類装置及び画像分類方法
US10043304B2 (en) 2008-09-25 2018-08-07 Koninklijke Philips N.V. Three dimensional image data processing
JP5248971B2 (ja) * 2008-10-08 2013-07-31 オリンパス株式会社 撮像ユニットの製造方法、および撮像ユニット
US8571399B2 (en) 2008-10-14 2013-10-29 Nidec Sankyo Corporation Photographic optical device
US8267601B2 (en) 2008-11-04 2012-09-18 James Cameron Platform for stereoscopy for hand-held film/video camera stabilizers
JP4852591B2 (ja) 2008-11-27 2012-01-11 富士フイルム株式会社 立体画像処理装置、方法及び記録媒体並びに立体撮像装置
CN101770059B (zh) 2008-12-27 2012-06-20 鸿富锦精密工业(深圳)有限公司 相机模组
US9395617B2 (en) 2009-01-05 2016-07-19 Applied Quantum Technologies, Inc. Panoramic multi-scale imager and method therefor
US8326036B2 (en) 2009-02-20 2012-12-04 Qylur Security Systems, Inc. Automated image separation method
GB0903689D0 (en) 2009-03-03 2009-04-15 Sigmavision Ltd Vehicle tyre measurement
WO2010103948A1 (ja) * 2009-03-10 2010-09-16 コニカミノルタオプト株式会社 撮像光学系,撮像光学装置及びデジタル機器
JP5316118B2 (ja) 2009-03-12 2013-10-16 オムロン株式会社 3次元視覚センサ
US20100265313A1 (en) 2009-04-17 2010-10-21 Sony Corporation In-camera generation of high quality composite panoramic images
US20100278423A1 (en) 2009-04-30 2010-11-04 Yuji Itoh Methods and systems for contrast enhancement
US8503778B2 (en) 2009-05-14 2013-08-06 National University Of Singapore Enhancing photograph visual quality using texture and contrast data from near infra-red images
US8170408B2 (en) 2009-05-18 2012-05-01 Invensense, Inc. Optical image stabilization in a digital still camera or handset
US8194170B2 (en) 2009-06-02 2012-06-05 Algonquin College Axicon lens array
US9124874B2 (en) 2009-06-05 2015-09-01 Qualcomm Incorporated Encoding of three-dimensional conversion information with two-dimensional video sequence
US8405750B2 (en) 2009-06-08 2013-03-26 Aptina Imaging Corporation Image sensors and image reconstruction methods for capturing high dynamic range images
US9479768B2 (en) 2009-06-09 2016-10-25 Bartholomew Garibaldi Yukich Systems and methods for creating three-dimensional image media
CN101581828B (zh) 2009-06-09 2011-06-22 苏州大学 环形孔径超薄光学成像系统
JP5293463B2 (ja) 2009-07-09 2013-09-18 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
US8228417B1 (en) 2009-07-15 2012-07-24 Adobe Systems Incorporated Focused plenoptic camera employing different apertures or filtering at different microlenses
JP5450200B2 (ja) 2009-07-17 2014-03-26 富士フイルム株式会社 撮像装置、方法およびプログラム
TWI389559B (zh) 2009-08-14 2013-03-11 Ind Tech Res Inst 前景影像分離方法
US8294073B1 (en) 2009-10-01 2012-10-23 Raytheon Company High angular rate imaging system and related techniques
US9063345B2 (en) 2009-10-19 2015-06-23 Pixar Super light-field lens with doublet lenslet array element
JP5539818B2 (ja) * 2009-10-20 2014-07-02 富士フイルム株式会社 撮像レンズおよび撮像装置
US8325187B2 (en) 2009-10-22 2012-12-04 Samsung Electronics Co., Ltd. Method and device for real time 3D navigation in panoramic images and cylindrical spaces
US8457398B2 (en) 2009-10-27 2013-06-04 Himax Media Solutions, Inc. Image enhancement method and apparatuses utilizing the same
EP2502115A4 (en) 2009-11-20 2013-11-06 Pelican Imaging Corp RECORDING AND PROCESSING IMAGES THROUGH A MONOLITHIC CAMERA ARRAY WITH HETEROGENIC IMAGE CONVERTER
WO2011066275A2 (en) 2009-11-25 2011-06-03 Massachusetts Institute Of Technology Actively addressable aperture light field camera
US8400555B1 (en) 2009-12-01 2013-03-19 Adobe Systems Incorporated Focused plenoptic camera employing microlenses with different focal lengths
WO2011081646A1 (en) 2009-12-15 2011-07-07 Thomson Licensing Stereo-image quality and disparity/depth indications
US8442392B2 (en) 2009-12-22 2013-05-14 Nokia Corporation Method and apparatus for operating the automatic focus or the optical imaging stabilizing system
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US20110213664A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
JP5683025B2 (ja) 2010-04-19 2015-03-11 パナソニックIpマネジメント株式会社 立体画像撮影装置および立体画像撮影方法
JP5593118B2 (ja) 2010-04-30 2014-09-17 日本電産サンキョー株式会社 振れ補正機能付き光学ユニット
JP5622443B2 (ja) 2010-06-08 2014-11-12 日本電産サンキョー株式会社 振れ補正機能付き光学ユニット
WO2011155318A1 (ja) 2010-06-08 2011-12-15 日本電産サンキョー株式会社 振れ補正装置、撮影用光学装置およびレンズ駆動装置
JP5138734B2 (ja) 2010-06-15 2013-02-06 シャープ株式会社 撮像レンズ、および撮像モジュール
CN101902657B (zh) 2010-07-16 2011-12-21 浙江大学 一种基于深度图分层的虚拟多视点图像的生成方法
US9485495B2 (en) 2010-08-09 2016-11-01 Qualcomm Incorporated Autofocus for stereo images
TWI409577B (zh) 2010-08-20 2013-09-21 Primax Electronics Ltd 光學影像系統
US20120056987A1 (en) 2010-09-03 2012-03-08 Luke Fedoroff 3d camera system and method
JP5392415B2 (ja) 2010-09-22 2014-01-22 富士通株式会社 ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム
CN103339918B (zh) 2010-10-01 2016-05-04 康泰克斯有限公司 图像传感器的信号强度匹配
US9317761B2 (en) 2010-12-09 2016-04-19 Nanyang Technological University Method and an apparatus for determining vein patterns from a colour image
JP5716465B2 (ja) 2011-03-09 2015-05-13 ソニー株式会社 撮像装置
US9030550B2 (en) 2011-03-25 2015-05-12 Adobe Systems Incorporated Thin plenoptic cameras using solid immersion lenses
US9172856B2 (en) 2011-03-29 2015-10-27 Microsoft Technology Licensing, Llc Folded imaging path camera
US8928988B1 (en) 2011-04-01 2015-01-06 The Regents Of The University Of California Monocentric imaging
WO2012136388A1 (en) 2011-04-08 2012-10-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Capturing panoramic or semi-panoramic 3d scenes
US20120293607A1 (en) 2011-05-17 2012-11-22 Apple Inc. Panorama Processing
US9390530B2 (en) 2011-05-27 2016-07-12 Nokia Technologies Oy Image stitching
CN103609102B (zh) 2011-06-15 2016-09-28 微软技术许可有限责任公司 高分辨率多光谱图像捕捉
TWI507807B (zh) 2011-06-24 2015-11-11 Mstar Semiconductor Inc 自動對焦方法與裝置
US20130265459A1 (en) * 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
US8896890B2 (en) 2011-06-30 2014-11-25 Lexmark International, Inc. Image capture system having a folded optical path
JP5848052B2 (ja) 2011-07-21 2016-01-27 日本電産サンキョー株式会社 振れ補正機能付き光学ユニット
JP5819128B2 (ja) * 2011-07-29 2015-11-18 Hoya株式会社 撮像ユニット
US8784301B2 (en) * 2011-08-12 2014-07-22 Intuitive Surgical Operations, Inc. Image capture unit and method with an extended depth of field
US8988564B2 (en) 2011-09-09 2015-03-24 Apple Inc. Digital camera with light splitter
WO2013039035A1 (ja) 2011-09-14 2013-03-21 コニカミノルタアドバンストレイヤー株式会社 撮像レンズ、撮像装置及び携帯端末並びにデジタル機器
US9438889B2 (en) 2011-09-21 2016-09-06 Qualcomm Incorporated System and method for improving methods of manufacturing stereoscopic image sensors
US8855476B2 (en) 2011-09-28 2014-10-07 DigitalOptics Corporation MEMS MEMS-based optical image stabilization
US9495597B2 (en) 2011-10-20 2016-11-15 Monsanto Technology Llc Plant stand counter
US9692991B2 (en) 2011-11-04 2017-06-27 Qualcomm Incorporated Multispectral imaging system
US8582220B2 (en) 2011-12-05 2013-11-12 Himax Technologies Limited Lens module
CN202405984U (zh) 2011-12-10 2012-08-29 东莞市旭业光电科技有限公司 一种用于音圈马达的垫片
KR101975893B1 (ko) 2012-03-21 2019-09-10 엘지이노텍 주식회사 카메라 모듈
US9210405B2 (en) 2012-03-22 2015-12-08 Qualcomm Technologies, Inc. System and method for real time 2D to 3D conversion of video in a digital camera
KR101818778B1 (ko) * 2012-03-23 2018-01-16 한국전자통신연구원 실감 파노라마 영상 생성을 위한 3d 데이터 포맷 생성/소비 장치 및 방법
US20130260823A1 (en) 2012-03-31 2013-10-03 Ashutosh Y. Shukla Compact Portable Electronic Device Having Augmented Back Volume for Speaker
NL2008639C2 (en) 2012-04-13 2013-10-16 Cyclomedia Technology B V Device, system and vehicle for recording panoramic images, and a device and method for panoramic projection thereof.
JP2013238848A (ja) 2012-04-20 2013-11-28 Hoya Corp 撮像装置
US9571818B2 (en) 2012-06-07 2017-02-14 Nvidia Corporation Techniques for generating robust stereo images from a pair of corresponding stereo images captured with and without the use of a flash device
EP2677733A3 (en) 2012-06-18 2015-12-09 Sony Mobile Communications AB Array camera imaging system and method
EP2677734A3 (en) 2012-06-18 2016-01-13 Sony Mobile Communications AB Array camera imaging system and method
US9134503B2 (en) 2012-07-06 2015-09-15 Apple Inc. VCM OIS actuator module
WO2014012603A1 (en) 2012-07-17 2014-01-23 Heptagon Micro Optics Pte. Ltd. Optical devices, in particular computational cameras, and methods for manufacturing the same
CN105787909B (zh) 2012-08-08 2018-07-20 杜比实验室特许公司 用于高动态范围图像的图像处理
US9398264B2 (en) 2012-10-19 2016-07-19 Qualcomm Incorporated Multi-camera system using folded optics
JP2014112302A (ja) 2012-12-05 2014-06-19 Ricoh Co Ltd 所定領域管理システム、通信方法、及びプログラム
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9270876B2 (en) 2013-01-05 2016-02-23 The Lightco Inc. Methods and apparatus for using multiple optical chains in parallel with multiple different exposure times
US9171355B2 (en) 2013-04-12 2015-10-27 Qualcomm Incorporated Near infrared guided image denoising
US9602806B1 (en) 2013-06-10 2017-03-21 Amazon Technologies, Inc. Stereo camera calibration using proximity data
JP2015036716A (ja) 2013-08-12 2015-02-23 ソニー株式会社 像ぶれ補正装置及び撮像装置
US10178373B2 (en) 2013-08-16 2019-01-08 Qualcomm Incorporated Stereo yaw correction using autofocus feedback
EP2860699A1 (en) 2013-10-11 2015-04-15 Telefonaktiebolaget L M Ericsson (Publ) Technique for view synthesis
US9223118B2 (en) 2013-10-31 2015-12-29 Apple Inc. Small form factor telephoto camera
CN203745777U (zh) 2014-01-10 2014-07-30 瑞声声学科技(深圳)有限公司 阵列式镜头装置
WO2015121707A1 (en) 2014-02-13 2015-08-20 Sony Corporation Method and system for adjusting camera settings using corneal reflection
US9316810B2 (en) 2014-03-07 2016-04-19 Apple Inc. Folded telephoto camera lens system
US9557627B2 (en) 2014-03-07 2017-01-31 Apple Inc. Folded camera lens systems
US9383550B2 (en) 2014-04-04 2016-07-05 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US9374516B2 (en) 2014-04-04 2016-06-21 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US10013764B2 (en) 2014-06-19 2018-07-03 Qualcomm Incorporated Local adaptive histogram equalization
US9541740B2 (en) 2014-06-20 2017-01-10 Qualcomm Incorporated Folded optic array camera using refractive prisms
US9294672B2 (en) 2014-06-20 2016-03-22 Qualcomm Incorporated Multi-camera system using folded optics free from parallax and tilt artifacts
US20150373269A1 (en) 2014-06-20 2015-12-24 Qualcomm Incorporated Parallax free thin multi-camera system capable of capturing full wide field of view images
US9549107B2 (en) 2014-06-20 2017-01-17 Qualcomm Incorporated Autofocus for folded optic array cameras
US9386222B2 (en) 2014-06-20 2016-07-05 Qualcomm Incorporated Multi-camera system using folded optics free from parallax artifacts
US9819863B2 (en) 2014-06-20 2017-11-14 Qualcomm Incorporated Wide field of view array camera for hemispheric and spherical imaging
US9832381B2 (en) 2014-10-31 2017-11-28 Qualcomm Incorporated Optical image stabilization for thin cameras
US10334158B2 (en) 2014-11-03 2019-06-25 Robert John Gove Autonomous media capturing
US10070055B2 (en) 2015-03-25 2018-09-04 Massachusetts Institute Of Technology Devices and methods for optically multiplexed imaging
US10142113B2 (en) 2015-06-18 2018-11-27 Bank Of America Corporation Identifying and maintaining secure communications
US20170038502A1 (en) 2015-08-06 2017-02-09 Qualcomm Incorporated Methods and apparatus having a two-surface microlens array for low f-number plenoptic cameras
CN105445885B (zh) * 2015-10-30 2019-06-18 宁波舜宇光电信息有限公司 可调光学镜头和摄像模组及其制造方法

Also Published As

Publication number Publication date
US20150286033A1 (en) 2015-10-08
KR102118242B1 (ko) 2020-06-02
US9383550B2 (en) 2016-07-05
CN106164732A (zh) 2016-11-23
EP3126891A1 (en) 2017-02-08
KR20160140886A (ko) 2016-12-07
US9973680B2 (en) 2018-05-15
JP2017515144A (ja) 2017-06-08
EP3126891B1 (en) 2020-03-11
US20160353008A1 (en) 2016-12-01
MX2016012728A (es) 2016-12-12
BR112016023095A2 (pt) 2017-08-15
WO2015153901A1 (en) 2015-10-08

Similar Documents

Publication Publication Date Title
BR112016023095B1 (pt) Foco automático em sistema multicâmera de óptica dobrada discreto
US9860434B2 (en) Auto-focus in low-profile folded optics multi-camera system
US11575883B2 (en) 3D test chart, adjusting arrangement, forming method and adjusting method thereof
JP4673202B2 (ja) 画像入力装置
BR112015008296B1 (pt) Sistema de múltiplas câmeras que usa óptica dobrada
JP5152580B2 (ja) 撮影装置、及び光学装置
CN112840268B (zh) 相机致动器和包括相机致动器的相机模块
JP2008026802A (ja) 撮像装置
CN104425532A (zh) 具有立体堆栈结构的图像传感器
US9759549B2 (en) Distance detecting device
US11297271B2 (en) Image sensor and image capture apparatus
CN104347089A (zh) 信息记录介质、信息再现装置和信息再现方法
KR102561935B1 (ko) 카메라 모듈
JP2010217507A (ja) 焦点検出光学系及びそれを備えた撮像装置
US9641764B2 (en) Variable focal length elements for adaptive optical zoom systems and methods
JP2022128518A (ja) 測距カメラ
JP2005025140A (ja) 焦点検出装置

Legal Events

Date Code Title Description
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B350 Update of information on the portal [chapter 15.35 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 02/04/2015, OBSERVADAS AS CONDICOES LEGAIS