BR102012020046A2 - Sistema de formação de imagem método de formar imagem e meio de armazenamento legível por computador não transitório - Google Patents

Sistema de formação de imagem método de formar imagem e meio de armazenamento legível por computador não transitório Download PDF

Info

Publication number
BR102012020046A2
BR102012020046A2 BRBR102012020046-5A BR102012020046A BR102012020046A2 BR 102012020046 A2 BR102012020046 A2 BR 102012020046A2 BR 102012020046 A BR102012020046 A BR 102012020046A BR 102012020046 A2 BR102012020046 A2 BR 102012020046A2
Authority
BR
Brazil
Prior art keywords
lens
image
computer
function
images
Prior art date
Application number
BRBR102012020046-5A
Other languages
English (en)
Inventor
Mohammad Mehdi Danesh Panah
Daniel Curtis Gray
Gil Abramovich
Kevin George Harding
Original Assignee
Gen Electric
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gen Electric filed Critical Gen Electric
Publication of BR102012020046A2 publication Critical patent/BR102012020046A2/pt

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0075Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1312Sensors therefor direct reading, e.g. contactless acquisition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Image Input (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)

Abstract

SISTEMA DE FORMAÇÃO DE IMAGEM. MÉTODO DE FORMAR IMAGEM E MEIO DE ARMAZENAMENTO LEGÍVEL POR COMPUTADOR NÃO TRANSITÓRIO. Trata-se de um sistema de formação de imagem que inclui um posicionável configurado para deslocar axialmente um plano de imagem, em que o plano de imagem é ferado a partir de prótons que emanam de um objeto e que passam através de uma lente, um plano do detector posicionado para receber os prótons do objeto que passam através da lente, e um computador programado para caracterizar a lente como a lente como uma função matemática, adquirir duas ou mais imagens de elemento do objeto com o planoo de imagem de cada imagem de elemento em diferentes posições axiais com relação ao plano do detector, determinar uma distância focada do objeto a partir da lente, com base na caracterização da lente e com base nas duas ou mais imagens de elemento adquirido, e gerar um mapa de profundidade do objeto com base na distância determinada.

Description

“SISTEMA DE FORMAÇÃO DE IMAGEM, MÉTODO DE FORMAR IMAGEM E MEIO DE ARMAZENAMENTO LEGÍVEL POR COMPUTADOR NÃO
TRANSITÓRIO”
Direitos de Licenca do Governo
Esta invenção foi feita com o suporte do governo sob o número
de concessão hshqdc-10-c-00083 concedido pelo departamento de segurança interna. O governo detém determinados direitos na invenção.
Antecedentes da invenção As modalidades da invenção referem-se geralmente a um sistema e método para a profundidade a partir da formação de imagem desfocada, e mais particularmente a um dispositivo de coleta de múltiplas impressões digitais sem contato.
É bem conhecido que os padrões e a geometria das impressões digitais são diferentes para cada indivíduo e são inalteradas com o tempo. 15 Assim, as impressões digitais servem como identificadores extremamente precisos de um indivíduo, uma vez que eles contam com atributos físicos não modificáveis. A classificação de impressões digitais é usualmente baseada em determinadas características, tais como arco, laço ou espiral, com as características mais distintivas sendo as minúcias, as bifurcações ou as 20 finalizações encontradas nas arestas e o formato geral do fluxo da aresta.
Tradicionalmente, as impressões digitais foram obtidas por meio de tinta e papel, onde um sujeito cobre uma superfície de seu dedo com tinta e pressiona/rola seu dedo no papel ou em uma superfície semelhante para produzir uma impressão digital rolada. Mais recentemente, vários sistemas de 25 digitalização de impressão digital eletrônicos foram desenvolvidos que obtêm imagens de impressões digitais que utilizam uma técnica de captura de imagem da impressão digital óptica. Tais sistemas de digitalização de impressão digital eletrônicos, tipicamente, estiveram na forma de leitores de imagem de impressão digital baseados em contato que exigem que o dedo de um sujeito seja posto em contato com uma tela e, então, fisicamente rolado através da tela para fornecer uma impressão digital de imagem rolada completamente adquirida de maneira óptica. No entanto, os leitores de 5 impressão digital baseados em contato têm desvantagens significantes associadas a eles. Por exemplo, em um ambiente de campo, a sujeira, a gordura ou outros resíduos podem se acumular na janela dos leitores de imagem de impressão digital baseados em contato, de modo a gerar imagens de impressão digital de qualidade ruim. Adicionalmente, tais leitores de 10 impressão digital baseados em contato fornecem um meio de espalhar doença ou outra contaminação de uma pessoa para outra.
Nos sistemas de digitalização de impressão digital eletrônicos recentes, os leitores de impressão digital sem contato capturam impressões digitais sem a necessidade de contato físico entre o dedo de um sujeito e uma 15 tela. O objetivo é gerar uma imagem de impressão digital equivalente à rolada que usa um sistema de formação de imagem sem contato no qual as imagens são formadas por meio de uma lente. A formação de imagem convencional fornece a representação em 2D do objeto, enquanto para gerar a impressão digital equivalente a rolada, exige-se o perfil em 3D do dedo. Para um objeto 20 tal como um dedo, algumas partes do objeto estão em foco e alguns estão desfocados quando formada a imagem com um sistema de formação de imagem com profundidade de campo rasa. Tipicamente, uma região em foco é uma região de um objeto que está em um foco tão nítido quanto possível, e de maneira adversa, a desfocagem refere-se a uma falta de foco, o grau do qual 25 pode ser calculado entre duas imagens. Os sistemas conhecidos podem gerar um mapa de profundidade do objeto que usa ou um algoritmo de profundidade a partir do foco (DFF) ou um de profundidade a partir da desfocagem (DFD).
Em um sistema, um sistema de digitalização de impressão digital sem contato adquire uma imagem do dedo ao utilizar uma fonte de Iuz estruturada, e uma imagem em 3D é gerada usando-se um algoritmo de DFF. Em um algoritmo de DFF, como um exemplo, muitas medições são feitas em várias posições de plano focal e as muitas medições são usadas para gerar um 5 mapa de profundidade. Tipicamente, as várias posições de plano focal são obtidas ou através do movimento físico do objeto ou da lente ou através do ajuste do plano focal (que usa as técnicas conhecidas ou que usa uma ou mais lentes birrefringentes que produzem desvios focais em diferentes ângulos de polarização que passam através delas). Os sistemas baseados em DFF, no 10 entanto, tipicamente exigem que muitas medições sejam obtidas e também podem incluir o ajuste do plano focal para focar no objeto, assim como uma fonte de Iuz estruturada.
Para um dado objeto, a quantidade de desfocagem depende de pelo menos dois parâmetros: 1) uma distância do objeto até a lente, e 2) as 15 características da lente. Se o segundo parâmetro (isto é, as características da lente) for conhecido, e o sistema puder precisamente medir uma quantidade de desfocagem, então, a distância do objeto pode ser determinada. Isso forma a base dos algoritmos de DFD conhecidos.
Assim, em alguns leitores de impressão digital sem contato, o 20 sistema adquire uma imagem de um dedo ao utilizar uma fonte de Iuz branca, e uma imagem em 3D é gerada usando um algoritmo de DFD. Em um algoritmo de DFD, uma função de desfocagem age como um núcleo em espiral com a impressão digital, e o modo mais direto de recuperar é através da análise de domínio de frequência de entalhes de imagem obtida. Essencialmente, à 25 medida que a quantidade de desfocagem aumenta, a largura do núcleo em espiral diminui, resultando na eliminação de conteúdo de alta frequência.
Os algoritmos de DFD tipicamente começam com uma suposição de um estimador gaussiano simplificado ou do tipo pillbox para uma função de dispersão pontual (PSF)1 que se acumulam em uma suposição de iluminação policromática. Tipicamente, um ponto do objeto, quando tem a imagem formada, irá se parecer com uma curva em sino em vez de um ponto nítido. A função que descreve o formato das curvas em sino é chamada de “PSF”, e o formato da PSF em um detector de imagem depende da distância do ponto do objeto até a lente, assim como das características da lente interna. Assim, estas suposições simplificam as derivações matemáticas e fornecem uma abordagem conveniente ao DFD. A extensão até a qual as suposições se prendem depende do sistema de formação de imagem em particular e da condição de iluminação. Para a ótica de formação de imagem altamente corrigida e a iluminação de Iuz branca, o PSF se assemelha a um gaussiano ou um do tipo pillbox e, ao supor isso, tipicamente gera um estimador de profundidade com um erro razoável. No entanto, pode ser mostrado que a estimativa de profundidade com base no DFD é altamente sensível à determinação apropriada da estrutura de PSF, e aplicar o DFD com base nos modelos de PSF gaussiano (ou do tipo pillbox) em um sistema de formação de imagem onde o PSF se separa desta suposição resulta nas estimativas de profundidade não confiáveis. Ou seja, o modelo simplificado não descreve adequadamente o comportamento da lente física onde há um alto grau de aberração, onde uma lente tem uma profundidade de campo pequena comparada ao tamanho do objeto, quando a Iuz quase monocromática é usada (tal como um LED), ou quando a Iuz monocromática é usada (tal como um laser), como exemplos. Assim, os sistemas de DFD falham em estimar a distância do objeto e falham em reproduzir precisamente uma impressão digital em um sistema sem contato.
Portanto, seria desejável projetar um sistema e método de adquirir impressões digitais em uma aplicação sem contato que é responsável por imperfeições da lente. Breve Descrição da Invenção
As modalidades da invenção são direcionadas a um sistema e método para a coleta de múltiplas impressões digitais sem contato.
De acordo com um aspecto da invenção, um sistema de formação de imagem inclui um sistema de formação de imagem que inclui um dispositivo posicionável configurado para axialmente desviar um plano de imagem, em que o plano de imagem é gerado a partir de prótons que emanam de um objeto e que passam através de uma lente, um plano do detector posicionado para receber os prótons do objeto que passa através da lente, e um computador programado para caracterizar a lente como uma função matemática, adquirir duas ou mais imagens de elemento do objeto com o plano de imagem de cada imagem de elemento em posições axiais diferentes com relação ao plano do detector, determinar uma distância focada do objeto a partir da lente, com base na caracterização da lente e com base nas duas ou mais imagens de elemento adquiridas, e gerar um mapa de profundidade do objeto com base na distância determinada.
De acordo com um outro aspecto da invenção, um método de formação de imagem inclui caracterizar matematicamente uma lente como uma função matemática, adquirir duas ou mais imagens de elemento de um objeto 20 com um plano de imagem do objeto em posições axiais diferentes com relação a um detector, determinar uma primeira distância focada do plano de imagem até o objeto, tal que o plano de imagem é localizado no detector, com base na caracterização matemática da lente e com base na primeira e na segunda imagens de elemento, e gerar um mapa de profundidade do objeto com base 25 na determinação.
De acordo, ainda com um outro aspecto da invenção, um meio de armazenamento legível por computador não transitório que tem armazenado nele um programa de computador que compreende instruções as quais, quando executadas por um computador, fazem com que o computador produza uma função de pupila de uma lente, adquira imagens de elemento de um objeto em diferentes localizações de um plano de imagem do objeto com relação a um detector, determine onde colocar o plano de imagem do primeiro entalhe do 5 objeto com base na função de pupila e com base nas imagens de elemento adquiridas do primeiro entalhe do objeto, e gere um mapa de profundidade do objeto com base na determinação.
Várias outras características e vantagens se tornarão evidentes a partir da descrição detalhada e dos desenhos a seguir.
Breve Descrição dos Desenhos
Os desenhos ilustram as modalidades preferidas presentemente contempladas para realizar a invenção.
Nos desenhos:
A Figura 1 ilustra um típico espectro de impressão digital.
A Figura 2 ilustra um espectro de frequência radial exemplificativo
de uma típica imagem de impressão digital.
A Figura 3 ilustra um primeiro espectro radial e um segundo espectro radial para as imagens que têm diferentes níveis de obscuridade.
A Figura 4 ilustra um efeito de obscurecer uma imagem usando um núcleo gaussiano exemplificativo.
A Figura 5 ilustra sistemas coordenados usados para identificar os planos na lente em referência às modalidades da invenção.
A Figura 6 ilustra um método de corrigir uma imagem usando a profundidade a partir da desfocagem (DFD), de acordo com a invenção.
Descrição Detalhada
De acordo com a invenção, um modelo matemático é usado que governa o comportamento da lente. O modelo é afetado pela distância do objeto e as características físicas da lente (isto é, aberrações, comprimento focal, etc...). A informação dos planos de foco (DFF) e de uma quantidade de desfocagem (DFF) é combinada para produzir um mapa de profundidade. A seguir está uma descrição de um algoritmo para um sistema de formação de imagem de impressão digital sem contato de acordo com as modalidades da 5 invenção. No entanto, a invenção não é limitada a um tal sistema e contempla- se que a invenção revelada possa ser aplicável a qualquer sistema de formação de imagem que usa a estimativa de profundidade passiva de um conjunto de imagens ligeiramente desfocadas como profilometria microscópica em 3D para a inspeção em aplicações industriais, formação de imagem de 10 boroscópio em 3D, formação de imagem médica in-situ em 3D, câmeras consumidoras em 3D (com lentes de deslocamento de foco apropriadas), formação de imagem passiva para reconhecimento de alvo em 3D (indústrias de defesa ou segurança), e semelhantes.
pode ser obtido de uma impressão digital comum e gerado usando-se uma transformada de Fourier, conforme conhecido na técnica. Em uma típica impressão digital e no domínio de frequência é evidente que os padrões exibem uma periodicidade distinta que é representada nos dados espectrais como uma concentração abrupta ou halo 102. Por isso, a informação útil, em 20 termos de estimativa de profundidade, pode ser extraída na formação de imagem de impressão digital com base nesta periodicidade conhecida.
espectrais da Figura 1) pode ser separado do halo de maior frequência 102 que é simétrico e pode ser atribuído às marcas de impressão digital. O espectro pode ser transformado em coordenadas polares para gerar uma projeção em um eixo geométrico de frequência radial que usa o que segue:
A Figura 1 ilustra um típico espectro de impressão digital 100 que
O componente de DC 104 (próximo do centro dos dados
p\Jr)- yP\Jr,V)UU Equação 1;
onde fr denota a frequência radial e Ip (fr,Θ) denota o espectro em coordenadas polares.
A Figura 2 ilustra um espectro de frequência radial exemplificativo 150 de uma típica imagem de impressão digital. As marcas de impressão digital reais exibem a si próprias através de uma protuberância 152 no espectro 5 150. Isso é em oposição ao comportamento esperado das imagens naturais (isto é, aquelas que não têm um padrão geralmente simétrico, tal como em uma impressão digital), que pode ser modelado por um decaimento exponencial da forma Ipifr)- fra. Tipicamente, os recursos detalhados mais visíveis de uma imagem de impressão digital são as arestas e as 10 ranhuras, e é a desfocagem desses recursos que é medida, de acordo com as modalidades da invenção.
Os métodos de DFD convencionais assumem uma determinada forma para uma função de dispersão pontual (PSF) da lente, que resulta em um uso de funções conhecidas, tais como uma função gaussiana ou do tipo 15 pillbox em vez da PSF. No entanto, quando o formato da PSF real se separa significativamente das suposições, os algoritmos de DFD convencionais tendem a fornecer resultados ruins. Ou seja, para um objeto como uma impressão digital, que tem a protuberância 152 no espectro 150 conforme ilustrado na Figura 2, que usa um núcleo de obscuridade conhecido e 20 convencional pode fazer com que um método de DFD convencional fracasse, assim, falhando em fornecer uma formação de imagem com profundidade final satisfatória usando DFD.
Por exemplo, a fim de ilustrar aqueles métodos de DFD conhecidos usando-se uma função gaussiana ou do tipo pillbox não são 25 estimativas apropriadas para o processo de obscuridade, um entalhes de uma imagem pode ser obscurecido com núcleos de vários tamanhos e formatos, e a imagem resultante pode ser comparada com uma segunda imagem obtida pelo sistema de formação de imagem. Começando com o gráfico 200, que se refere à Figura 3, um primeiro espectro de frequência radial 202 e um segundo espectro de frequência radial 204 que têm níveis diferentes de obscuridade são ilustrados. Assim, de acordo com os métodos de DFD convencionais, os núcleos de obscuridade conhecidos poderiam ser aplicados, por exemplo, no 5 primeiro espectro de frequência radial 202 a fim de reproduzir o segundo espectro de frequência radial 204. O objetivo é compreender se, por exemplo, um núcleo de obscuridade gaussiano pode, de fato, transformar a primeira imagem, da qual o primeiro espectro de frequência radial 202 é derivado, na segunda imagem, da qual o segundo espectro de frequência radial 204 é 10 derivado. Referindo-se à Figura 4, em um exemplo, o primeiro espectro de frequência radial 202 é obscurecido 206 com um núcleo gaussiano com uma largura de desvio padrão de 0,9 pixel. Conforme pode ser visto na Figura 4, o espectro de imagem obscurecida 206 se separa da imagem real 204 capturada pelo sistema de formação de imagem. O comportamento semelhante pode ser 15 mostrado para diferentes desvios de padrão do núcleo gaussiano, e o comportamento semelhante também pode ser mostrado para outros núcleos de obscuridade, tais como um núcleo do tipo pillbox desvios de padrão.
Assim, pode-se observar que nem o núcleo de obscuridade gaussiano nem o do tipo pillbox são capazes de reproduzir de maneira 20 aceitável uma imagem desfocada a partir de uma outra imagem. Como tal, de acordo com a invenção, a informação sobre a PSF da lente é experimental ou empiricamente obtida em vez de usar um núcleo teórico tal como um gaussiano ou um do tipo pillbox. Conforme visto nas Figuras exemplificativas 3 e 4, o conteúdo de alta frequência parece estar presente em ambas as imagens, as 25 quais podem ser atribuídas ao ruído eletrônico e de quantização. Como um resultado, é improvável que o conteúdo de alta frequência das imagens possa ter servido de base para os cálculos de DFD. Assim, um pré-filtro passa-baixo pode ser usado para remover a parte de alta frequência do espectro antes do processamento adicional.
Dessa maneira, se uma lente de formação de imagem não exibir uma PSF gaussiana, do tipo pillbox ou de outra forma analítica, a informação exigida pode ser derivada empiricamente ou através do mapa de pupila para projetar um estimador de profundidade baseado em DFD confiável, de acordo com a invenção. Referindo-se à Figura 5, uma armação de trabalho 300 inclui um plano do objeto 302, uma pupila de saída 304 (que corresponde a uma localização de uma lente 306), um plano de imagem 308 e um plano do detector 310 (por exemplo, de um dispositivo acoplado à carga ou CCD). Os prótons emanam do plano do objeto 302, passam através da pupila de saída 304, e formam uma imagem clara no plano de imagem 308 que, dependendo das distâncias e das características do sistema de formação de imagem, podem coincidir com a localização do plano do detector 310. Assim, o sistema 300 representa um sistema de formação de imagem que pode alterar seu comprimento focal.
As características da lente de formação de imagem são reduzidas para sua pupila de saída. Tipicamente, um mapa de função de pupila (ou mapa de pupila) é uma frente de onda na pupila de saída do sistema de formação de imagem para uma dada posição do objeto no espaço. Conforme 20 conhecido na técnica, à medida que a distância Z0 entre o plano do objeto 302 e a pupila de saída 304 é variada, o plano de imagem 308, em uma distância z, da pupila de saída 304 igualmente varia. Como tal e para questão de clareza, deseja-se conhecer o valor de z0 que irá colocar o plano de imagem 308 coincidente com o plano do detector 310, tal que uma imagem clara ou 25 nitidamente focada de um objeto no plano do objeto 302 pode ser obtida. De acordo com uma modalidade e conforme ilustrado, a lente 306 pode ser posicionada em uma plataforma móvel 312 que pode, ela mesma, ser capaz de transladar ao longo de um eixo geométrico de translação 314, que pode ser usado para obter uma pluralidade de imagens de elemento de um objeto que é posicionado no plano do objeto 302. Tipicamente, uma imagem de elemento é uma única imagem tomada com uma definição e configuração de lente específicas (isto é, comprimento focal). A distância Z0 pode ser alterada de outras maneiras de acordo com a invenção. Por exemplo, o objeto no plano do objeto 302 pode, em vez disso, ser transladado por um translador de objeto 316 que pode transladar o plano do objeto 302 ao longo do eixo geométrico de translação 314. Ademais, a distância Z0 também pode ser alterada, de acordo com a invenção, usando-se outras técnicas conhecidas na técnica que incluem, mas não são limitadas a isso, uma janela de percurso variável, um prima, um translador piezo eletrônico, uma óptica birrefringente, e semelhantes. Como tal, a distância Z0 pode ser real ou fisicamente afetada pelo movimento físico do objeto e/ou da lente ou a distância Z0 pode ser virtualmente afetada ao alterar uma distância evidente entre ela ao usar, por exemplo, a janela de percurso variável, o prisma ou a óptica birrefringente, como exemplos.
Referindo-se agora à Figura 6, um método de obter uma profundidade de um objeto é ilustrado no presente. E, conforme declarado, muito embora as modalidades da invenção sejam descritas á medida que elas se referem à aquisição de imagens de impressão digital, contempla-se que a 20 invenção descrita no presente seja aplicável a um arranjo mais amplo de tecnologias de formação de imagem. Por exemplo, em outras aplicações onde uma técnica de DFD não é otimizada porque os núcleos conhecidos não representam adequadamente as propriedades do sistema de formação de imagem, tais como uma PSF da lente.
A Figura 6 ilustra uma técnica ou método 400, de acordo com a
invenção, dotado de um componente fora de linha 402 e um componente em linha 404. Geralmente, o componente fora de linha 402 inclui as etapas para empiricamente caracterizar uma lente, tal como a lente 306 ilustrada no sistema da Figura 5. O componente em linha 404 inclui a aquisição de imagens e a manipulação delas ao levar em consideração a caracterização da lente e a PSF ou a função de pupila derivada do componente fora de linha 402.
A técnica geral 400 é descrita conforme segue: referindo-se de 5 novo à Figura 5, uma função de pupila é representada como p(x,y) e a PSF com h{x,y) que pode ser encontrada através dos pacotes de software de desenho de lente ou empiricamente através de vários métodos que inclui a interferometria. Nota-se que a função de pupila e a PSF no plano de formação de imagem têm a seguinte relação:
h(u, v; γ,ζσ) = 3{p(- AziX-Az^; γ, zj}; Equação 2,
onde 3{.} denota a transformada de Fourier e γ denota uma
definição focal em particular na lente, e λ é o comprimento de onda de iluminação. Como a versão em escala de Fourier, os pares são relacionados através da transformada de Fourier como:
P(x,y).<r^>p(fx,fy)
p(- XziX-Xzjy). < 3 > ^ P
λz,.
y ·
' f* fy '
U V i J
Pode-se escrever:
Equação 3,
Ku,ν;γ,z0) = j-P(fx = -XziU, fy = -XziVir^0). Equação 4.
No entanto, porque o plano do detector não coincide com o plano
de imagem em general, um fator de fase quadrático (desfocagem) pode ser
usatífó^áráípê^âr a fun^^refe/^^tte^eér^e^onsável por esta distância: = 3{pX-Az,x-Aziy, r,z„)} . Equgçâ0 5i
onde J= Β((λ XêÀ-Xz^; γ, z0)
Jzi aKzI Zd)
é relacionado à distância entre o plano de imagem e o plano do detector e desaparece quando a condição de formação de imagem se mantém, isto é
2I = zd ■ Em seguida, a imagem formada no detector pode ser escrita
como uma convolução entre a PSF e uma imagem ideal, tal como:
ίγ 0,0= h 0, t) (g) h{s, t; Z0)
ft) = h(f, J,)^ ' Equaçâ0 ^6'
Ao invocar o princípio de dualidade da transformada de Fourier, pode-se mostrar que:
Equação 7.
Pi-AziS,-AzfiA — >—p
Az
fs f
i \ i J
Assim,
Ás 'Zé ;
fs f .
i ^zi
>r,z0
Equação 8.
Os espectros da imagem podem ser reescritos como:
lAf.J,I^1Trh(LJl)XP'
A Z;
fs fr
v Azi Azi
\Y*z0
Equação 9,
e a relação espectral como:
fs f .
IrffsJt)
fffsJt)
v Azj Azj
Y X^O
A. JL-
v Azi ’ Azi ’
Y 2’Zo
Equação 10,
A qual segura ponto por ponto para (fs,ft) diferente e pode ser expressa em Coordenadas Polares como:
Iyl ( A #)
Ι^Ρ,Θ)
£_ \AZj
Ay2,Z0
Equação 11,
onde p'(fs,f,)<* ρ’ρ(ρ,θ) resulta em p\qf„aft)<* ρ·ρ(αρ,θ). A
letra p denota as Coordenadas Polares.
A função de pupila pode ser expressa com polinomiais de Zernike, em um exemplo, como:
ρ'ρ(ρ,θ;γ,z0)=Wffdpco90+Wf’z°(} +W^f0{? +W^f0ρϊco&+W%2z°p2coi Θ, Equação 12.
Os polinomiais de Zernike são um conjunto de funções polinomiais, conforme ilustradas na Equação 12, que podem ser usadas para descrever uma frente de onda de maneira eficiente. Eles agem como funções 5 de base para descrever uma função mais complexa. Contempla-se, no entanto, que a invenção não seja limitada à expressão da função de pupila com os polinomiais de Zernike, mas que outras funções, tais como a formulação de Abbe, possam ser usadas.
A substituição na Equação 12 resulta em:
ΙρΆ(ρ,θ) _ w;\' cos Θ + W2r^" (Azo )2 p + W/(; ^p3 + w/; Azop2 COS Θ + W2^" (Aza )2 pcos2 Θ . Iy2 (A Θ) ~ W1^ cose+ W£’z° (Az0)2 p+ W£’z° P3+W£’2° Az0P2 COS0 + W£’Z° (Az0)2 pcos2 θ’
Equação 13,
Que é um polinomial com definições focais dependentes dos coeficientes e pode ser escrita em representação visual como:
ΙγλΡ,θ) p' (p!λζηθ;γχ,ζ0)
Z0 = argmin
min >^max 1
ΙγλΡ,θ) p'P{p! *Ζηθ\γ2,ζ0)
Equação 14.
Ϊ2 ' r p'
Referindo-se à Equação 13, o cálculo fora de linha 402 fornece os valores da segunda fração e as imagens de elemento adquiridas por meio do 15 componente em linha 404 podem ser processadas (Transformada de Fourier) para calcular a primeira fração, de acordo com a invenção, a estratégia de minimização, de acordo com a invenção, é, então, descobrir a distância do objeto Z0 tal que a diferença entre as duas frações desaparece. Este processo é feito para muitos pontos no dedo para mapear a superfície.
Conforme declarado, o componente fora de linha 402 de acordo
com a invenção inclui a caracterização da lente usando uma série de etapas matemáticas discutidas no presente abaixo. Em um algoritmo de DFD de domínio espectral, a transformada de Fourier da distribuição de intensidade no CCD para uma dada fonte de ponto precisa ser conhecida. Conforme è 15
mostrado na Figura 5, o plano de imagem e o plano de CCD não coincidem e, por isso, a relação simples de Fourier entre a PSF e a função de pupila não é válida. No entanto, a propagação de espectro angular entre a função de pupila e o plano de CCD pode ser usada para calcular a transformada de Fourier de 5 distribuição de Iuz no plano de CCD (espectro angular no plano (x,y)) com base na transformada de Fourier (espectro angular) da função de pupila (ajustada com uma fase quadrática adicional). As seguintes equações mostram o processo:
Precisa-se: 3{/(x, >’)} oc AS(x, v)
AS(x,y) oc AS(Í, φ x
Φίξ,ι?) = /<£,*?.**)
AS(^rf) = Α8ιρ·Μ>φ® ASMΦ
AStgk(^tIf): pode ser encontrado anaffieamente (evitar semfhamento) frequência muito alta na periferia da pupila de saída Α5^(ξ,φ = g(W<á)· ser computado com base nos Zemikes íf ai: aberração (varia através da profundidade do objeto)
; Equações 15.
Referindo-se à Figura 5, o esquema mostra os sistemas 10 coordenados na pupila de saída, o CCD e os planos de imagem, assim como os tamanhos típicos para uma lente de impressão digital. A distância zdentre a pupila de saída e o plano de CCD é fixa, no entanto, a distância entre a pupila de saída e o plano de imagem muda dependendo da localização do objeto e da configuração da lente focal. O tamanho da pupila de saída da lente 306 varia 15 ligeiramente para diferentes distâncias do objeto.
A fim de calcular a transformada de Fourier da função de pupila, um cálculo de transformada de Fourier (DFT) discreto muito grande (por exemplo, 35.000 x 35.000) é necessário, o qual pode ser proibitivo. Isso é devido ao fato de que a frente de onda esférica de referência exibe rápidas 20 flutuações de fase na margem da pupila. Para calcular o espectro angular de um tal campo, a amostragem espacial deve satisfazer os critérios de Nyquist. Os cálculos a seguir mostram qual é o período de amostragem espacial (e 16
tamanho da matriz), de acordo com um exemplo:
O ângulo coseno máximo da frente de onda planar na margem da
pupila (D = 32mm) que representa a focagem de esfera de referência em Zf =
55 mm (pupila para distância de ponto de imagem) é:
Dl 2 16
max
(<y) = —========= = —— = 0.28
v 57.2
+ Z1
'f ; Equação 16.
Que, de acordo com a relação α = λ/ξ, sugere:
max(/,) = amax I λ-0.28/(0.52x IO-3) = 538 l/mm _ _
max v 7 ; Equaçao17.
De acordo com a taxa de Nyquist, capturar esta frequência exige
um intervalo de amostragem espacial de d, =---= 0.93μπι
2 Inax(Zf)
ou cerca de 35.000 amostras de frente de onda através de 32 mm de diâmetro. Como tal, a DFT deve, então, operar em uma matriz de 35.000 x 35.000, que pode não ser prática, e que pode resultar na subamostragem. Assim, o espectro angular na função de pupila pode ser calculado indiretamente.
A parte da aberração da frente de onda tipicamente não é alta frequência e seu espectro angular pode ser calculado através da DFT. Isso sugere quebrar o cálculo do espectro angular de frente de onda de pupila total em dois problemas:
1. Calcular o espectro angular da aberração de frente de onda através da DFT.
2. Computar diretamente os componentes angulares (frentes de onda planares) da onda esférica de referência em frequências
predeterminadas. Uma vez que se sabe exatamente o que são essas frentes de onda planares, pode-se calculá-las em qualquer posição na pupila sem introduzir o serrilhamento (aliasing) causado pela DFT.
A amostragem através da pupila pode ser relativamente escassa (por exemplo, 128 x 128). Neste exemplo, as aberrações da não são de alta frequência, assim, podem ser capturadas em nab amostras em ambas as direções. Para nab = 256, ou άξ = Dlnab = 0A25mm, isso leva à frequência máxima de Hiax(Zi) =112άξ = 4 mm'1.
Como se sabe na técnica, os componentes angulares podem ser diretamente calculados para cada par de coseno direcional (α, β). O componente de onda de plano no plano de pupila na posição (ξ,η) pode ser escrito como:
( 2π )
exp(-Jk j·) = exp - j—ίαξ + βη)
^ Á J ■, Equação 18,
Onde há um mapa que converte qualquer par (α, β) para as coordenadas de pupila (ξ,η). Esta relação é definida como:
I-^jl-Ia2
ξ = Ζ/-
a ; Equação 19, e
7 = Z/
l-Vl-2^2
P ; Equação 20.
As equações que mapeiam a frequência para os cosenos direcionais incluem:
a ~ ; Equação 21, e
β = λίη
Assim, para qualquer dada grade discreta de (f4,fn), o componente de onda de plano pode ser calculado através das equações acima. Esta abordagem pode ser tomada para calcular diretamente o espectro 15 angular em uma grade de frequência predefinida que estende até a frequência máxima presente na esfera de referência. Devido ao fato de a frequência máxima no presente exemplo ser max(Zf) = 538 mm'1, uma grade de frequência com 2.000 elementos está incluída em cada direção que cobre uma região de [- 538,+538] mm'1. Os componentes angulares calculados nesta grade estarão, 20 desse modo, livres do serrilhamento.
A próxima etapa é fazer a convolução entre as frequências de frente de onda de aberração e de frente de onda esférica angular. Uma vez que tanto a frente de onda de referência quanto os espectros angulares de aberração são calculados, eles podem ser convolutos para chegar no espectro angular de frente de onda total:
AS (ξ,η) = AStplt (ξ,η)® ^ »7 ). .Equasfc22.
Assim, de acordo com a invenção e referindo-se de volta para a Figura 6, o componente fora de linha 402 inclui, em um alto nível, a etapa de caracterizar a lente 406 e mapear a lente como uma função matemática 408. O componente fora de linha 402 pode ser caracterizado como uma etapa de calibração, desempenhada uma vez, que caracteriza uma lente de maneira completa e é feita através de uma função de mapa de pupila que descreve a quantidade de aberração para todo ponto no espaço do objeto. A função de pupila muda para os objetos em diferentes localizações. Os resultados do componente fora de linha 402, assim, fornecem uma caracterização de uma lente que, conforme declarado, resulta nos coeficientes ilustrados na segunda fração da Equação 13. Mais geralmente, a função matemática 408 pode ser obtida como uma equação geral que inclui o uso das funções de pupila, conforme ilustrado na Equação 11. No entanto, de acordo com uma modalidade, a função de pupila é matematicamente descrita como um mapa de função de pupila através dos coeficientes de Zernicke como na Equação 13. Como tal, a lente é caracterizada com base na sua resposta às fontes de ponto em diferentes localizações em um volume de interesse, e as tabelas de caracterização podem ser geradas em uma tabela que mapeia a distância do objeto até um conjunto de parâmetros que pode ser medido a partir as imagens durante o processo em linha e com base na descrição matemática revelada no presente.
O componente em linha 404 inclui uma série de etapas de alto nível consistente com a descrição matemática acima. O componente em linha 404 começa ao adquirir duas ou mais imagens de elemento 410 de um objeto para o qual se deseja gerar um mapa de profundidade. Um entalhe do objeto é selecionado na etapa 412, e os melhores planos de focagem são estimados na etapa 412 usando, por exemplo, um método ou algoritmo de DFF conhecido, das imagens de elemento. Uma vez que os melhores planos de focagem são estimados, uma relação espectral de potência entre as imagens de elemento é obtida na etapa 416, que irá, desse modo, ser usada para comparar a uma relação da função da lente que foi obtida correspondente às mesmas localizações da imagem do elemento, consistente com a Equação 11. Na etapa 418, supõe-se a distância do objeto e na etapa 420 uma relação da função é calculada, com base na função de lente obtida na etapa 408 e com base na distância do objeto suposta da etapa 418. Em 420, também, as relações são comparadas, consistentes com a Equação 11, e na etapa 422 determina-se se as relações estão dentro de um limite. Se não, 424, então a iteração continua e as suposições da distância do objeto são revisadas na etapa 426, e o controle retorna para a etapa 420 para ser comparado, novamente, à relação espectral de potência obtida na etapa 416.
Assim, de acordo com a invenção, as imagens de elemento são obtidas, os melhores planos de focagem são estimados usando uma técnica conhecida (DFF), e uma relação de espectro de potência é calculada. A função mapeada é calculada que corresponde a cada uma das funções de elemento, 20 mas com base em uma suposição de uma distância do objeto como um ponto de partida. Uma relação da função mapeada é calculada que corresponde às imagens de elemento, assim como uma relação das próprias imagens de elemento. A iteração, desse modo, inclui a revisão da relação da função mapeada ao revisar a distância do objeto suposta, que continua até que as 25 duas relações se comparem a um limite razoável. Em suma, uma relação de funções de pupila em duas definições de lente diferentes (por exemplo, comprimentos focais) é igual à relação do espectro de potência entre as duas imagens formadas pelas definições de lente. A distância z0 na qual a relação do espectro de potência entre as duas melhores imagens em foco de elemento (que pode ser encontrada pela DFF, independente da z0) é mais próxima da relação das funções de pupila em uma distância do objeto igual a z0. Esta distância Z0 é a distância estimada do objeto a partir da lente.
Referindo=se ainda à Figura 6, uma vez que as relações são
aceitavelmente próximas 428, então, uma distância final é obtida na etapa 430 para o entalhe selecionado na etapa 412. Na etapa 432, uma determinação é feita para independente de os entalhes adicionais serem testados. Se forem, 434, então, o controle se move de volta para a etapa 412, um outro entalhes é 10 selecionado, e o processo repete para o entalhe recentemente selecionado. No entanto, se nenhum entalhe adicional 436, então o processo acaba na etapa 438, onde um mapa de profundidade completo é gerado.
De acordo com as modalidades adicionais da invenção, o dispositivo de coleta de múltiplas impressões digitais sem contato é 15 configurado para adquirir os dados de impressão digital para os dedos do sujeito sem a mão do sujeito estar em uma posição estacionária, mas, de preferência, sendo movida (isto é, passada ou acenada) através de um volume de formação de imagem. Ou seja, em vez de guiar o sujeito para colocar seus dedos em uma localização de captura de imagem especificada, o dispositivo de 20 coleta de múltiplas impressões digitais sem contato age para rastrear uma localização dos dedos do sujeito e fazer com que o(s) dispositivo(s) de captura de imagem adquira(m) imagens dos dedos.
De acordo com as modalidades da invenção, um ou mais dispositivos de verificação de posicionamento podem incluir dispositivos (por 25 exemplo, câmera auxiliar) que funciona como dispositivos de rastreamento que são usados para verificar e rastrear o movimento da mão de um sujeito em um volume de formação de imagem para fins de controlar os dispositivos de captura de imagem. Ou seja, um campo de visão e profundidade de foco de cada dispositivo de captura de imagem podem ser independentemente definidos com base em um movimento e colocação da mão/dedos do sujeito à medida que são rastreados pelos dispositivos de rastreamento, de modo a possibilitar que siga as pontas dos dedos do indivíduo. O movimento do campo de visão de cada dispositivo de captura de imagem pode ser alcançado por meio de um acionamento mecânico de um ou mais elementos ou através de um controle eletrônico/digital de cada dispositivo de captura de imagem. Por exemplo, em uma modalidade onde um ou mais elementos são mecanicamente acionados para mover o campo de visão, um espelho posicionado adjacente ao dispositivo de captura de imagem poderia ser girado ou um elemento de lente poderia ser movido para deslocar o campo de visão do dispositivo de captura de imagem. Em uma modalidade onde os controles eletrônicos ou digitais são implementados, um sensor no dispositivo de captura de imagem (isto é, sensor da câmera) poderia ser controlado para deslocar o campo de visão do dispositivo de captura de imagem.
Vários métodos podem ser usados para registrar a imagem. Conforme usado no presente, o registro refere-se a um processo de transformar as diferentes imagens de um único sujeito em um sistema coordenado. No contexto de uma impressão digital, as imagens registradas 20 são derivadas das imagens capturadas da impressão digital. As imagens registradas têm a mesma escala e posição de recurso.
A fim de garantir que os recursos das múltiplas imagens deslocadas sejam aproximadamente registrados, um sistema de lente telecêntrica também é comumente usado que mantém o aumento em uma 25 faixa estreita. No entanto, conforme se sabe na técnica, a adição de uma abertura telecêntrica inerentemente aumenta o número f e pode resultar em uma profundidade de campo excessiva.
Em determinadas modalidades de registro, o registro pode usar um sistema de informação geográfico (GIS) que emprega a orto-retificação. A orto-retificação é um processo de remapear uma imagem para remover o efeito de variações de superfície e posição da câmera de uma imagem em perspectiva normal. As múltiplas imagens resultantes são projeções corrigidas 5 em perspectiva em um plano comum, que representam nenhuma alteração de aumento com uma correspondência de pixel para pixel. Em determinadas modalidades, a orto-retificação pode compreender não distorcer cada imagem capturada usando a informação de calibração em 3D do dispositivo de captura de imagem, e a projeção da imagem para um plano.
Uma vez que as imagens são registradas, a fusão da imagem é
usada para criar uma única imagem de alta resolução de múltiplas imagens do mesmo alvo. Geralmente, a fusão da imagem é o procedimento de combinar a informação de múltiplas imagens em uma única imagem enquanto na dita modalidade esta informação se refere à informação de foco local, espacial em 15 cada imagem. A imagem fundida novamente, desejavelmente, iria aparecer inteiramente em foco enquanto as imagens-fontes estão em foco em diferentes e específicas regiões. Isso pode ser realizado ao usar métricas selecionadas. Essas métricas são escolhidas com base no fato de que os pixels nas partes obscurecidas de uma imagem exibem diferentes níveis de recurso, em 20 comparação àqueles pixels que estão em bom foco. Por exemplo, as imagens focadas tipicamente contêm frequências mais altas enquanto as imagens obscurecidas têm componentes de frequência mais baixa.
Em determinadas modalidades, determinadas métricas podem ser usadas para computar o nível de foco para cada pixel em cada imagem 25 obtida separadamente da impressão digital. As imagens separadas são, então, normalizadas e combinadas usando uma combinação ponderada dos pixels para obter uma única imagem fundida ou composta. Assim, para cada uma das imagens adquiridas, a região de interesse é determinada pela segmentação da imagem. A partir de diferentes métricas o foco em cada localização na imagem é calculado como uma combinação ponderada de recursos, então, as imagens são combinadas usando a dita combinação ponderada local dos recursos.
Na geração de uma imagem composta de uma impressão digital,
um mapa de contorno ou “mapa de profundidade” da imagem composta para cada uma da pluralidade de impressões digitais é calculado /gerado usando o algoritmo de profundidade a partir da desfocagem (DFD) revelado. A análise/o cálculo de profundidade a partir do foco é um método de análise de imagem 10 que combina múltiplas imagens capturadas em diferentes distâncias de foco para fornecer um mapa em 3D que correlaciona as localizações em foco em cada imagem com uma distância de foco conhecida na qual a imagem específica foi capturada.
A fim de combinar as imagens de impressão digital capturadas 15 com os bancos de dados padrão baseados na captura de dados em 2D, o modelo em 3D obtido do algoritmo de DFD revelado pode ser usado para gerar uma imagem em 2D não rolada. O modelo usado simula as distorções da imagem que correspondem ao inverso da projeção da superfície da impressão digital em uma projeção bidimensional obtida em um método de contato.
Portanto, de acordo com uma modalidade da invenção, um
sistema de formação de imagem inclui um dispositivo posicionável configurado para deslocar axialmente um plano de imagem, em que o plano de imagem é gerado a partir de prótons que emanam de um objeto e passam através de uma lente, um plano do detector posicionado para receber os prótons do objeto 25 que passam através da lente, e um computador programado para caracterizar a lente como uma função matemática, adquirir duas ou mais imagens de elemento do objeto com o plano de imagem de cada imagem de elemento em posições axiais diferentes com relação ao plano do detector, determinar uma distância focada do objeto a partir da lente, com base na caracterização da lente e com base nas duas ou mais imagens de elemento adquiridas, e gerar um mapa de profundidade do objeto com base na distância determinada.
De acordo com uma outra modalidade da invenção, um método 5 de formar imagem inclui matematicamente caracterizar uma lente como uma função matemática, adquirir duas ou mais imagens de elemento de um objeto com um plano de imagem do objeto em diferentes posições axiais com relação a um detector, determinar uma primeira distância focada do plano de imagem até o objeto tal que o plano de imagem é localizado no detector, com base na 10 caracterização matemática da lente e com base na primeira e na segunda imagens de elemento, e gerar um mapa de profundidade do objeto com base na determinação.
De acordo com ainda uma outra modalidade da invenção, um meio de armazenamento legível por computador não transitório que tem 15 armazenado nele um programa de computador que compreende as instruções que, quando executadas por um computador, fazem com que o computador produza uma função de pupila de uma lente, adquire imagens de elemento de um objeto em diferentes localizações de um plano de imagem do objeto com relação a um detector, determine onde colocar o plano de imagem do primeiro 20 entalhe do objeto com base na função de pupila e com base nas imagens de elemento adquiridas do primeiro entalhe do objeto, e gere um mapa de profundidade do objeto com base na determinação.
Uma contribuição técnica para o método e o aparelho revelados é que ela fornece um sistema e método implementados por computador para a profundidade de formação de imagem desfocada, e mais particularmente, a um dispositivo de coleta de múltiplas impressões digitais sem contato.
Uma pessoa versada na técnica irá observar que as modalidades da invenção podem ser interfaceadas e controladas por um meio de armazenamento legível por computador que tem armazenado nele um programa de computador. O meio de armazenamento legível por computador inclui uma pluralidade de componentes tais como um ou mais componentes eletrônicos, componentes de hardware, e/ou componentes de software de computador. Esses componentes podem incluir um ou mais meios de armazenamento legíveis por computador que geralmente armazenam instruções tais como software, firmware e/ou linguagem de montagem para desempenhar uma ou mais partes de uma ou mais implementações ou modalidades de uma seqüência. Esses meios de armazenamento legíveis por computador são geralmente não transitórios e/ou tangíveis. Os exemplos de tal meio de armazenamento legível por computador incluem um meio de armazenamento de dados gravável de computador e/ou dispositivo de armazenamento. Os meios de armazenamento legíveis por computador podem empregar, por exemplo, um ou mais meios de armazenamento de dados magnéticos, elétricos, ópticos, biológicos e/ou atômicos. Ademais, tais meios podem assumir a forma, por exemplo, de discos flexíveis, fitas magnéticas, CD- ROMs, DVD-ROMs, unidades de disco rígido, e/ou memória eletrônica. Outras formas de meios de armazenamento legíveis por computador não transitórios e/ou tangíveis não listados podem ser empregadas com as modalidades da invenção.
Inúmeros de tais componentes podem ser combinados ou divididos em uma implementação de um sistema. Ademais, tais componentes podem incluir um conjunto e/ou séries de instruções de computador escritas em quaisquer de inúmeras linguagens de programação ou implementadas com 25 elas, conforme observado por aqueles versados na técnica. Além disso, outras formas de meios legíveis por computador, tais como uma onda portadora, podem ser empregadas para incorporar um sinal de dados de computador que representa uma seqüência de instruções que, quando executadas por um ou mais computadores, faz com que o um ou mais computadores desempenhem uma ou mais implementações ou modalidades de uma seqüência.
Esta descrição escrita usa exemplos para revelar a invenção, que inclui o melhor modo, e também para possibilitar que qualquer pessoa versada 5 na técnica pratique a invenção, que inclui fazer e usar quaisquer dispositivos ou sistemas e desempenhar quaisquer métodos incorporados. O escopo patenteável da invenção é definido pelas reivindicações e pode incluir outros exemplos que ocorram para aqueles versados na técnica. Tais outros exemplos são destinados a estarem dentro do escopo das reivindicações se 10 elas tiverem elementos estruturais que não diferem da linguagem literal das reivindicações, ou se incluírem elementos estruturais equivalentes com diferenças não substanciais das linguagens literais das reivindicações.

Claims (24)

1. SISTEMA DE FORMAÇÃO DE IMAGEM, que compreende: um dispositivo posicionável configurado para deslocar axialmente um plano de imagem, em que o plano de imagem é gerado a partir dos prótons que emanam de um objeto e que passam através de uma lente; um plano do detector posicionado para receber os prótons do objeto que passam através da lente; e um computador programado para: caracterizar a lente como uma função matemática; adquirir duas ou mais imagens de elemento do objeto com o plano de imagem de cada imagem de elemento em diferentes posições axiais com relação ao plano do detector; determinar uma distância focada do objeto a partir da lente, com base na caracterização da lente e com base nas duas ou mais imagens de elemento adquiridas; e gerar um mapa de profundidade do objeto com base na distância determinada.
2. SISTEMA, de acordo com a reivindicação 1, em que o computador, que é programado para caracterizar a lente, é adicionalmente programado para caracterizar a lente como uma função de um perfil de aberração de lente e uma função de dispersão pontual (PSF) que é uma resposta para as fontes de ponto que são posicionadas em diferentes localizações com relação à lente.
3. SISTEMA, de acordo com a reivindicação 2, em que o computador é programado para modelar a PSF como uma transformada de Fourier de uma função de pupila do sistema de formação de imagem que é representada em uma forma de múltiplos polinomiais.
4. SISTEMA, de acordo com a reivindicação 3, em que os múltiplos polinomiais são polinomiais de Zernike de aberrações de até terceira ordem.
5. SISTEMA, de acordo com a reivindicação 1, em que o objeto é um dedo e as duas ou mais imagens de elemento do objeto incluem pelo menos dois entalhes de uma impressão digital do dedo.
6. SISTEMA, de acordo com a reivindicação 1, em que o computador é programado para determinar a distância do objeto usando uma relação de espectro de potência entre as duas imagens de elemento.
7. SISTEMA, de acordo com a reivindicação 6, em que, quando o objeto é um objeto tridimensional, então a relação do espectro de potência é determinada entre os entalhes associados em duas imagens de elemento das duas ou mais imagens de elemento.
8. SISTEMA, de acordo com a reivindicação 6, em que o computador é programado para determinar a relação do espectro de potência usando uma transformada de Fourier.
9. SISTEMA, de acordo com a reivindicação 6, em que o computador é programado para: calcular um primeiro valor de uma função de pupila que corresponde à primeira imagem de elemento; calcular um segundo valor da função de pupila que corresponde à segunda imagem de elemento; determinar uma relação do primeiro valor da função e do segundo valor da função; e minimizar uma diferença entre: a relação do primeiro valor e do segundo valor; e a relação do espectro de potência; em que a diferença é minimizada ao buscar matematicamente por uma distância do objeto até a lente que chega à minimização.
10. MÉTODO DE FORMAR IMAGEM, que compreende: caracterizar matematicamente uma lente como uma função matemática; adquirir duas ou mais imagens de elemento de um objeto com um plano de imagem do objeto em posições axiais diferentes com relação a um detector; determinar uma primeira distância focada do plano de imagem até o objeto, tal que o plano de imagem é localizado no detector, com base na caracterização matemática da lente e com base na primeira e na segunda imagens de elemento; e gerar um mapa de profundidade do objeto com base na determinação.
11. MÉTODO, de acordo com a reivindicação 10, em que caracterizar matematicamente a lente compreende caracterizar matematicamente a lente como a função matemática que é baseada em um perfil de aberração da lente e com base em uma resposta para as fontes de ponto que são posicionadas em diferentes localizações com relação à lente.
12. MÉTODO, de acordo com a reivindicação 10, em que a primeira distância focada é uma distância até um primeiro entalhe do objeto, e em que o método compreende adicionalmente: determinar uma segunda distância focada do plano do objeto até o objeto com base na caracterização matemática da lente e com base nas duas ou mais imagens de elemento, em que a segunda distância focada é uma distância até um segundo entalhe do objeto; e gerar o mapa de profundidade usando-se o primeiro entalhe do objeto e o segundo entalhe do objeto.
13. MÉTODO, de acordo com a reivindicação 10, em que caracterizar matematicamente a lente compreende adicionalmente: modelar uma função de dispersão pontual (PSF) como uma transformada de Fourier do sistema de formação de imagem função de pupila; e representar a função de pupila como um ou mais polinomiais.
14. MÉTODO, de acordo com a reivindicação 13, em que representar a função de pupila compreende adicionalmente representar a função de pupila como um ou mais polinomiais de Zernike de aberrações de até terceira ordem.
15. MÉTODO, de acordo com a reivindicação 10, que compreende: determinar uma relação da imagem de elemento das duas ou mais imagens de elemento usando uma relação de um espectro de potência conforme determinada para duas ou mais imagens de elemento; e determinar a primeira distância focal do plano de imagem do objeto que inclui usar a relação da imagem de elemento.
16. MÉTODO, de acordo com a reivindicação 15, compreende determinar a relação da imagem de elemento usando uma transformada de Fourier das duas ou mais imagens de elemento.
17. MÉTODO, de acordo com a reivindicação 15, que compreende: calcular um primeiro valor da função matemática que corresponde a uma primeira imagem de elemento das duas ou mais imagens de elemento; calcular um segundo valor da função matemática que corresponde a uma segunda imagem de elemento das duas ou mais imagens de elemento; calcular uma relação da função matemática do primeiro valor e do segundo valor; e minimizar a diferença entre a relação da imagem de elemento e a relação da função matemática ao variar matematicamente uma distância do objeto até a lente quando se calcular o primeiro valor da função matemática e o segundo valor da função matemática.
18. MEIO DE ARMAZENAMENTO LEGÍVEL POR COMPUTADOR NÃO TRANSITÓRIO, que tem armazenado nele um programa de computador que compreende instruções que, quando executadas por um computador, fazem com que o computador: produza uma função de pupila de uma lente; adquira imagens de elemento de um objeto em diferentes localizações de um plano de imagem do objeto com relação a um detector; determine onde colocar o plano de imagem do primeiro entalhe do objeto com base na função de pupila e com base nas imagens de elemento adquiridas do primeiro entalhe do objeto; e gere um mapa de profundidade do objeto com base na determinação.
19. MEIO DE ARMAZENAMENTO LEGÍVEL POR COMPUTADOR, de acordo com a reivindicação 18, em que o computador é programado para produzir a função de pupila da lente ao ser programado para caracterizar o foco da lente como uma função matemática que é baseada em um perfil de aberração da lente e com base em uma distância entre uma fonte de ponto e a lente.
20. MEIO DE ARMAZENAMENTO LEGÍVEL POR COMPUTADOR, de acordo com a reivindicação 18, em que o objeto é um dedo e as imagens de elemento adquiridas incluem pelo menos dois entalhes de uma impressão digital do dedo.
21. MEIO DE ARMAZENAMENTO LEGÍVEL POR COMPUTADOR, de acordo com a reivindicação 18, em que o computador é feito para produzir a função de pupila da lente ao modelar a lente como uma função de um perfil de aberração da lente e modelar a lente como uma função de dispersão pontual (PSF) que é uma resposta para as fontes de ponto que são posicionadas em diferentes localizações com relação à lente.
22. MEIO DE ARMAZENAMENTO LEGÍVEL POR COMPUTADOR, de acordo com a reivindicação 21, em que o computador é programado para modelar a lente como uma PSF ao modelar a lente como uma transformada de Fourier da função de pupila do sistema de formação de imagem que é representada como um ou mais polinomiais de Zernicke.
23. MEIO DE ARMAZENAMENTO LEGÍVEL POR COMPUTADOR, de acordo com a reivindicação 18, em que o computador é feito para: calcular uma relação da imagem de elemento que usa uma relação de um espectro de potência de duas das imagens de elemento adquiridas do primeiro entalhe; e determinar onde colocar o plano de imagem do primeiro entalhe usando a relação da imagem de elemento.
24. MEIO DE ARMAZENAMENTO LEGÍVEL POR COMPUTADOR, de acordo com a reivindicação 23, em que o computador é programado para: calcular um primeiro valor da função de pupila que corresponde a uma primeira imagem de elemento das imagens de elemento adquiridas; calcular um segundo valor da função de pupila que corresponde a uma segunda imagem de elemento das imagens de elemento adquiridas; determinar uma relação da função de pupila do primeiro valor da função de pupila e do segundo valor da função de pupila; e minimizar uma diferença entre: a relação da função de pupila; e a relação da imagem de elemento; em que a diferença é minimizada ao determinar matematicamente jma distância do objeto até uma pupila de saída da lente que chega à minimização.
BRBR102012020046-5A 2011-10-13 2012-08-10 Sistema de formação de imagem método de formar imagem e meio de armazenamento legível por computador não transitório BR102012020046A2 (pt)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US13/272,424 US8340456B1 (en) 2011-10-13 2011-10-13 System and method for depth from defocus imaging

Publications (1)

Publication Number Publication Date
BR102012020046A2 true BR102012020046A2 (pt) 2013-11-12

Family

ID=47088641

Family Applications (1)

Application Number Title Priority Date Filing Date
BRBR102012020046-5A BR102012020046A2 (pt) 2011-10-13 2012-08-10 Sistema de formação de imagem método de formar imagem e meio de armazenamento legível por computador não transitório

Country Status (8)

Country Link
US (2) US8340456B1 (pt)
EP (1) EP2581877B1 (pt)
JP (1) JP6081101B2 (pt)
KR (1) KR102001678B1 (pt)
CN (1) CN103116739B (pt)
BR (1) BR102012020046A2 (pt)
CA (1) CA2785405C (pt)
ES (1) ES2868398T3 (pt)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9230306B2 (en) 2012-02-07 2016-01-05 Semiconductor Components Industries, Llc System for reducing depth of field with digital image processing
US8830380B2 (en) * 2012-06-28 2014-09-09 International Business Machines Corporation Depth of focus in digital imaging systems
US9066002B2 (en) * 2012-08-29 2015-06-23 Sony Corporation System and method for utilizing enhanced scene detection in a depth estimation procedure
AU2012258467A1 (en) * 2012-12-03 2014-06-19 Canon Kabushiki Kaisha Bokeh amplification
US9325971B2 (en) * 2013-01-10 2016-04-26 The Regents Of The University Of Colorado, A Body Corporate Engineered point spread function for simultaneous extended depth of field and 3D ranging
TW201503687A (zh) * 2013-07-15 2015-01-16 Chi Mei Comm Systems Inc 拍照控制系統及方法
JP6173156B2 (ja) 2013-10-02 2017-08-02 キヤノン株式会社 画像処理装置、撮像装置及び画像処理方法
CN104751103A (zh) * 2013-12-26 2015-07-01 齐发光电股份有限公司 手指指纹读取系统及指纹读取方法
TWI594632B (zh) * 2013-12-31 2017-08-01 佳能企業股份有限公司 一種影像補正參數的設定方法、電子裝置、電子裝置可讀取的儲存媒體與應用於電子裝置的程式
CN103856723B (zh) * 2014-02-25 2015-02-11 中国人民解放军国防科学技术大学 一种单透镜成像的psf快速标定方法
CN103927542B (zh) * 2014-04-25 2017-04-26 陕西科技大学 一种三维指纹特征提取方法
FR3020871B1 (fr) * 2014-05-07 2017-08-11 Areva Dispositif et procede de reconstruction tridimensionnelle d'une scene par analyse d'image
US9746323B2 (en) 2014-07-25 2017-08-29 Lockheed Martin Corporation Enhanced optical detection and ranging
CN105357426B (zh) * 2014-11-03 2019-01-15 苏州思源科安信息技术有限公司 用于移动终端可见光和生物识别组合系统的光电成像方法及移动终端
US9338363B1 (en) * 2014-11-06 2016-05-10 General Electric Company Method and system for magnification correction from multiple focus planes
TWI542891B (zh) 2014-12-29 2016-07-21 原相科技股份有限公司 光學測距方法與光學測距系統
US11340352B2 (en) 2014-12-29 2022-05-24 Pixart Imaging Inc. Image noise compensating system, and auto clean machine
CN105824027B (zh) * 2015-01-07 2019-01-11 原相科技股份有限公司 光学测距方法与光学测距系统
KR102432735B1 (ko) * 2015-05-27 2022-08-17 엘지이노텍 주식회사 모션 인식장치
US9760986B2 (en) 2015-11-11 2017-09-12 General Electric Company Method and system for automated shaped cooling hole measurement
US9715721B2 (en) 2015-12-18 2017-07-25 Sony Corporation Focus detection
US9958267B2 (en) 2015-12-21 2018-05-01 Industrial Technology Research Institute Apparatus and method for dual mode depth measurement
EP3185209B1 (en) * 2015-12-23 2019-02-27 STMicroelectronics (Research & Development) Limited Depth maps generated from a single sensor
CN105701451B (zh) * 2015-12-31 2019-04-26 联想(北京)有限公司 一种信息处理方法和电子设备
KR102382865B1 (ko) * 2017-06-28 2022-04-05 삼성전자주식회사 카메라 모듈, 카메라 모듈을 포함하는 전자 장치
US10715718B2 (en) * 2018-03-15 2020-07-14 Taiwan Semiconductor Manufacturing Company, Ltd. Phase detect auto-focus three dimensional image capture system
KR102472156B1 (ko) * 2018-04-19 2022-11-30 삼성전자주식회사 전자 장치 및 그 깊이 정보 생성 방법
US10753734B2 (en) * 2018-06-08 2020-08-25 Dentsply Sirona Inc. Device, method and system for generating dynamic projection patterns in a confocal camera
CN110175494A (zh) * 2018-07-06 2019-08-27 神盾股份有限公司 光学指纹感测装置
SE1830320A1 (en) * 2018-11-03 2020-05-04 Tracy Of Sweden Ab Method and arrangement for identifying object
US10957035B2 (en) * 2018-11-30 2021-03-23 Kla Corporation Defect classification by fitting optical signals to a point-spread function
CN110008802B (zh) 2018-12-04 2023-08-29 创新先进技术有限公司 从多个脸部中选择目标脸部及脸部识别比对方法、装置
CN110470219A (zh) * 2019-08-16 2019-11-19 福建农林大学 基于边缘频谱保留的散焦图像测距方法及装置
US20210356492A1 (en) * 2020-05-15 2021-11-18 Em Photonics, Inc. Wind determination method, wind determination system, and wind determination computer program product for determining wind speed and direction based on image analysis
CN112417717B (zh) * 2020-10-27 2023-01-24 国网重庆市电力公司电力科学研究院 Gis内部检测激光聚焦检测成像分析方法及可读存储介质
CN112965060A (zh) * 2021-02-19 2021-06-15 加特兰微电子科技(上海)有限公司 生命特征参数的检测方法、装置和检测体征点的方法
WO2023096502A1 (en) * 2021-11-25 2023-06-01 Kahu.Ai Limited Methods and systems for determining a three-dimensional structure of a skin lesion

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3639041A (en) * 1970-09-21 1972-02-01 Stanford Research Inst System and method for scanning the depth of the optic fundus
US4952815A (en) * 1988-04-14 1990-08-28 Nikon Corporation Focusing device for projection exposure apparatus
US5231443A (en) * 1991-12-16 1993-07-27 The Research Foundation Of State University Of New York Automatic ranging and automatic focusing
JPH06162187A (ja) * 1992-11-17 1994-06-10 Olympus Optical Co Ltd ボケ画像修復装置
EP0683389A1 (en) * 1994-05-12 1995-11-22 Kabushiki Kaisha Toshiba Laminograph and inspection and repair device using the same
US6229913B1 (en) 1995-06-07 2001-05-08 The Trustees Of Columbia University In The City Of New York Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two-images due to defocus
US5883703A (en) * 1996-02-08 1999-03-16 Megapanel Corporation Methods and apparatus for detecting and compensating for focus errors in a photolithography tool
KR970067585A (ko) * 1996-03-25 1997-10-13 오노 시게오 결상특성의 측정방법 및 투영노광방법
US5878152A (en) 1997-05-21 1999-03-02 Cognex Corporation Depth from focal gradient analysis using object texture removal by albedo normalization
US6219461B1 (en) 1997-07-29 2001-04-17 Cognex Corporation Determining a depth
JP3803950B2 (ja) 1999-03-04 2006-08-02 株式会社リコー 画像合成処理方法、画像合成処理装置及び記録媒体
US6806899B1 (en) * 1999-07-17 2004-10-19 David F. Schaack Focusing systems for perspective dimensional measurements and optical metrology
JP4656706B2 (ja) * 2000-08-28 2011-03-23 オリンパス株式会社 撮像装置および焦点距離換算装置
US6842290B2 (en) * 2002-09-18 2005-01-11 Dmetrix, Inc. Multi-axis imaging system having individually-adjustable elements
US20080101664A1 (en) * 2004-08-09 2008-05-01 Asher Perez Non-Contact Optical Means And Method For 3D Fingerprint Recognition
US7558709B2 (en) 2004-11-08 2009-07-07 Muralidhara Subbarao Methods and apparatus for computing the input and output signals of a linear shift-variant system
US7929801B2 (en) * 2005-08-15 2011-04-19 Sony Corporation Depth information for auto focus using two pictures and two-dimensional Gaussian scale space theory
JP2007139893A (ja) * 2005-11-15 2007-06-07 Olympus Corp 合焦検出装置
US20080075444A1 (en) 2006-09-25 2008-03-27 Murali Subbarao Blur equalization for auto-focusing
JP4531070B2 (ja) * 2007-02-07 2010-08-25 京セラ株式会社 生体認証装置
DE102007018048A1 (de) * 2007-04-13 2008-10-16 Michael Schwertner Verfahren und Anordnung zur optischen Abbildung mit Tiefendiskriminierung
US7777872B2 (en) * 2007-07-31 2010-08-17 Alcon Research, Ltd. Method of measuring diffractive lenses
JP5213688B2 (ja) * 2008-12-19 2013-06-19 三洋電機株式会社 撮像装置
US8199248B2 (en) * 2009-01-30 2012-06-12 Sony Corporation Two-dimensional polynomial model for depth estimation based on two-picture matching
US8406487B2 (en) * 2009-09-16 2013-03-26 General Electric Company Method and system for contactless fingerprint detection and verification
US20110228070A1 (en) * 2009-11-07 2011-09-22 Courosh Mehanian System and Method for Determining Image Focus by Sampling the Image at Multiple Focal Planes Simultaneously
CN102156037B (zh) * 2010-02-12 2013-06-12 北方国通(北京)光电科技有限公司 光学检测装置及检测方法

Also Published As

Publication number Publication date
CA2785405C (en) 2019-09-10
EP2581877B1 (en) 2021-04-07
KR102001678B1 (ko) 2019-07-18
US8340456B1 (en) 2012-12-25
CN103116739B (zh) 2017-11-24
JP6081101B2 (ja) 2017-02-15
EP2581877A3 (en) 2017-05-10
KR20130040121A (ko) 2013-04-23
US8737756B2 (en) 2014-05-27
US20130141538A1 (en) 2013-06-06
EP2581877A2 (en) 2013-04-17
JP2013089230A (ja) 2013-05-13
CA2785405A1 (en) 2013-04-13
CN103116739A (zh) 2013-05-22
ES2868398T3 (es) 2021-10-21

Similar Documents

Publication Publication Date Title
BR102012020046A2 (pt) Sistema de formação de imagem método de formar imagem e meio de armazenamento legível por computador não transitório
JP6319329B2 (ja) プレノプティック・カメラを使った表面属性の推定
CN111595812B (zh) 基于动量空间色散关系的关键参数的量测方法和系统
Barthel et al. Aberration measurement in HRTEM: Implementation and diagnostic use of numerical procedures for the highly precise recognition of diffractogram patterns
JP2016541028A (ja) 3d顕微鏡の較正
CN112484968B (zh) 用于光学量测的方法、系统、计算设备和存储介质
US8818754B2 (en) Thin films and surface topography measurement using reduced library
Khodadad et al. Single shot dual-wavelength digital holography: calibration based on speckle displacements
Vávra et al. Minimal sampling for effective acquisition of anisotropic BRDFs
JP2020506390A (ja) 電磁場の波頭の断層撮影分布を取得する方法及び光学システム
Xu et al. 3D reconstruction of laser projective point with projection invariant generated from five points on 2D target
Wen et al. Phase retrieval with dynamic linear combination in multiple intensity measurements
Burger et al. Comparative evaluation of three commercially available markerless depth sensors for close-range use in surgical simulation
EP3451042B1 (en) Systems and methods of biometric acquisition using positive optical distortion
Yang et al. Automatic optical inspection system for 3D surface profile measurement of multi-microlenses using the optimal inspection path
Mahmood et al. 3-D Shape Recovery from Image Focus Using Rank Transform
Chen et al. Error Analysis of Photometric Stereo with Near Quasi‐Point Lights
Radow et al. Photometric stereo with non-Lambertian preprocessing and Hayakawa lighting estimation for highly detailed shape reconstruction
Li et al. In situ aberration measurement method using a phase-shift ring mask
Lingel et al. A benchmark system for the evaluation of selected phase retrieval methods
Kyle Using parallel projection mathematics to orient an object relative to a single image
Dong et al. Efficient SVBRDF Acquisition with Manifold Bootstrapping
Lock Digital watermarking of precision imagery
Kim et al. OPC optimization techniques for enabling the reduction of mismatch between overlay metrology and the device pattern cell
Sahin et al. Depth from Defocus and Coded Apertures for 3D Scene Sensing

Legal Events

Date Code Title Description
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]
B03H Publication of an application: rectification [chapter 3.8 patent gazette]
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B11B Dismissal acc. art. 36, par 1 of ipl - no reply within 90 days to fullfil the necessary requirements