CN103116739A - 用于散焦测距成像的系统和方法 - Google Patents

用于散焦测距成像的系统和方法 Download PDF

Info

Publication number
CN103116739A
CN103116739A CN2012102860785A CN201210286078A CN103116739A CN 103116739 A CN103116739 A CN 103116739A CN 2012102860785 A CN2012102860785 A CN 2012102860785A CN 201210286078 A CN201210286078 A CN 201210286078A CN 103116739 A CN103116739 A CN 103116739A
Authority
CN
China
Prior art keywords
lens
function
plane
mathematical
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012102860785A
Other languages
English (en)
Other versions
CN103116739B (zh
Inventor
M.M.达内什帕纳
K.G.哈丁
G.阿布拉莫维奇
D.C.格雷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of CN103116739A publication Critical patent/CN103116739A/zh
Application granted granted Critical
Publication of CN103116739B publication Critical patent/CN103116739B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0075Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1312Sensors therefor direct reading, e.g. contactless acquisition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Image Input (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)

Abstract

成像系统包括:可定位装置,配置成轴向移动像平面,其中从发自物体并且经过透镜的光子来生成像平面;检测器平面,定位成接收经过透镜的物体的光子;以及计算机,编程为将透镜表征为数学函数,以相对于检测器平面的不同轴向位置的各元素图像的像平面来获取物体的两个或更多元素图像,基于透镜的表征并且基于所获取的两个或更多元素图像来确定物体离透镜的聚焦距离,并且基于所确定距离来生成物体的景深图。

Description

用于散焦测距成像的系统和方法
技术领域
本发明根据国土安全部授予的批准号HSHQDC-10-C-00083以政府支持进行。政府在本发明中具有某些权利。
一般来说,本发明的实施例涉及散焦测距成像(depth from defocus imaging)的系统和方法,以及更具体来说,涉及非接触式多指纹采集装置。
背景技术
众所周知,指纹的图案和几何形状对于每个个人都是不同的,并且是随时间不会改变的。因此,指纹用作个人的极准确标识符,因为他们依靠不可改变的物理属性。指纹的分类通常基于诸如弓形、环形或螺旋之类的某些特性,其中最独特的特性是存在于脊纹中的细节、分叉或末梢以及脊纹流向(ridge flow)的整体形状。
传统上,指纹通过墨水和纸张来得到,其中受检者用墨水覆盖其手指表面,并且将其手指在纸张或类似表面上按压/滚动,以便产生滚压指纹。近来,开发了各种电子指纹扫描系统,它们利用光学指纹图像捕获技术来得到指纹的图像。这类电子指纹扫描系统通常采取基于接触的指纹读取器,这类读取器要求受检者的手指放置成接触屏幕,并且然后在屏幕上物理地滚动,以便提供光学获取的完全滚压图像指纹。但是,基于接触的指纹读取器具有与其关联的重大缺点。例如,在现场环境中,污垢、油脂或其它碎屑可积累在基于接触的指纹读取器的窗口上,以使得生成不良质量的指纹图像。另外,这类基于接触的指纹读取器提供从一个人到另一个人散布疾病或其它污染的渠道。  
在近来的电子指纹扫描系统中,非接触式指纹读取器在无需受检者的手指与屏幕的物理接触的情况下捕获指纹。目标是使用非接触式成像系统来生成滚压等效指纹图像,其中图像通过透镜来形成。常规成像提供物体的2D表示,而为了生成滚压等效指纹,则要求手指的3D轮廓。对于诸如手指之类的物体,在采用浅景深成像系统来成像时,物体的某些部分焦点对准,而某些部分是散焦的。通常,焦点对准区域是尽可能锐聚焦的物体的区域,而相反,散焦指的是缺乏聚焦,其程度能够在两个图像之间计算。已知系统可使用聚焦测距(DFF)或者散焦测距(DFD)算法来生成物体的景深图(depth map)。  
在一个系统中,非接触式指纹扫描系统通过利用结构化光源来获取手指的图像,并且使用DFF算法来生成3D图像。作为一个示例,在DFF算法中,许多测量在各种焦平面位置进行,并且许多测量用于生成景深图。通常,通过物体或透镜的物理移动,或者通过焦平面的调整(使用已知技术,或者使用在经过其的不同极化角产生焦移的一个或多个双折射透镜),来得到各种焦平面位置。但是,基于DFF的系统通常要求得到许多测量,并且还可包括调整焦平面以便聚焦于物体以及结构化光源。
对于给定物体,散焦量取决于至少两个参数:1) 物体到透镜的距离,以及2) 透镜特性。如果第二参数(即,透镜特性)为已知,并且系统能够准确地测量散焦量,则能够确定物距。这形成已知DFD算法的基础。
因此,在一些非接触式指纹读取器中,该系统通过利用白光源来获取手指的图像,并且使用DFD算法来生成3D图像。在DFD算法中,散焦函数充当指纹的卷积内核,并且恢复它的最直接方式是通过所得图像块(image patch)的频域分析。本质上,随着散焦量减小,卷积内核的宽度减小,从而引起高频含量的消除。 
DFD算法通常开始于基于多色照明假设的点扩展函数(PSF)的简化高斯或pillbox估计器的假设。通常,物体点在被成像时将会看起来像钟形曲线而不是锐点。描述钟形曲线的形状的函数称作‘PSF’,并且图像检测器上的PSF的形状取决于物体点到透镜的距离以及内部透镜特性。因此,这些假设简化数学推导,并且提供DFD的便捷方式。这类假设成立的程度取决于特定成像系统和照明条件。对于高度校正成像光学器件和白光照明,PSF与高斯或pillbox相似,并且这样假定通常生成具有适当误差的景深估计器。但是,能够表明,基于DFD的景深估计对PSF结构的适当确定极为敏感,并且对其中PSF偏离这种假设的成像系统应用基于高斯(或pillbox)PSF模型的DFD引起不可靠景深估计。也就是说,作为示例,当存在高度像差时,当透镜与物体尺寸相比具有小景深时,当使用准单色光(例如LED)时,或者当使用单色光(例如激光)时,简化模型不会充分描述物理透镜行为。因此,已知DFD系统无法估计物距,并且无法在非接触式系统中准确再现指纹。
因此,期望设计考虑透镜缺陷、在非接触式应用中获取指纹的系统和方法。
发明内容
本发明的实施例针对用于非接触式多指纹采集的系统和方法。 
按照本发明的一个方面,成像系统包括:可定位装置,配置成轴向移动像平面,其中从发自物体并且经过透镜的光子来生成像平面;检测器平面,定位成接收经过透镜的物体的光子;以及计算机,编程为将透镜表征为数学函数,以相对于检测器平面的不同轴向位置的各元素图像的像平面来获取物体的两个或更多元素图像,基于透镜的表征并且基于所获取的两个或更多元素图像来确定物体离透镜的聚焦距离,并且基于所确定距离来生成物体的景深图。
按照本发明的另一方面,成像方法包括以数学方式将透镜表征为数学函数,以相对于检测器的不同轴向位置的物体的像平面来获取物体的两个或更多元素图像,基于透镜的数学表征并且基于第一和第二元素图像来确定像平面到物体的聚焦距离以使得像平面位于检测器处,以及基于该确定来生成物体的景深图。
按照本发明的又一方面,一种非暂时计算机可读存储介质,其上存储了包含指令的计算机程序,指令在由计算机运行时使计算机得出透镜的光瞳函数,在相对于检测器的物体的像平面的不同位置获取物体的元素图像,基于光瞳函数并且基于物体的第一块的所获取元素图像来确定放置物体的第一块的像平面的位置,以及基于该确定来生成物体的景深图。
通过以下详细描述和附图,使各种其它特征和优点将会显而易见。
附图说明
附图示出当前考虑用于执行本发明的优选实施例。
附图中:
图1示出典型指纹谱。
图2示出典型指纹图像的示范径向频谱(radial frequency spectrum)。图3示出具有不同模糊等级的图像的第一径向谱和第二径向谱。图4示出使用示范高斯内核来使一个图像模糊的效果。
图5示出参照本发明的实施例、用于识别透镜中的平面的坐标系。
图6示出按照本发明、使用散焦测距(DFD)来校正图像的方法。
具体实施方式
按照本发明,使用支配透镜行为的数学模型。该模型受到物距和透镜的物理特性(即,像差、焦距等)影响。组合来自焦平面(DFF)和来自散焦量(DFF)的信息,以便产生景深图。下面是按照本发明的实施例的非接触式指纹成像系统的算法的描述。但是,本发明并不局限于这种系统,而是预期所公开的本发明可以可适用于使用来自一组轻微散焦图像的被动景深估计的任何成像系统,例如用于工业应用中的检验的3D显微镜轮廓测定、3D管道镜成像、3D就地医疗成像、3D消费级相机(具有适当焦移透镜)、3D目标识别的被动成像(国防或安全工业)等。
图1示出可从普通指纹得到并且使用傅立叶变换来生成的典型指纹谱100,这是本领域已知的。在典型指纹以及在频域中,显然,图像呈现在谱数据中表示为不连贯浓度或晕轮102的独特周期性。因此,在景深估计方面的有用信息能够在指纹成像中基于这种已知周期性来提取。  
DC分量104(在图1的谱数据中心附近)可与对称的并且能够归因于指纹标记的高频晕轮102分离。谱能够变换成极坐标,以便使用下式在径向频率(radial frequency)轴上生成投影:
Figure 2012102860785100002DEST_PATH_IMAGE002
,                    等式1
其中,fr表示径向频率,以及Ip(fr,θ)表示极坐标中的谱。 
图2示出典型指纹图像的示范径向频谱150。实际指纹标记通过谱150中的峰丘152来展示。这与可通过形式
Figure 2012102860785100002DEST_PATH_IMAGE004
的指数衰减来建模的自然图像(即,没有如指纹中的一般对称图案的图像)的预计行为相反。通常,指纹图像的最可见的详细特征是脊纹和槽纹,并且按照本发明的实施例,要测量的是这些特征的散焦。
常规DFD方法假定透镜的点扩展函数(PSF)的某种形式,从而引起使用诸如高斯或Pillbox函数之类的已知函数来代替PSF。但是,当实际PSF形状与假设显著偏离时,常规DFD算法趋向于提供不良结果。也就是说,对于例如指纹等物体,具有图2所示的谱150中的峰丘152,使用已知和常规模糊内核(blurring kernel)能够引起常规DFD方法失败,因而无法使用DFD来提供令人满意的最终景深图像。
例如,为了示出使用高斯或Pillbox函数对于模拟过程不是适当估计,可采用各种尺寸和形状的内核来模糊一个图像的块,并且能够将所产生图像与成像系统所得到的第二图像进行比较。开始于图表200,参照图3,示出具有不同模糊等级的第一径向频谱202和第二径向频谱204。因此,按照常规DFD方法,已知模糊内核可应用于例如第一径向频谱202,以便再现第二径向频谱204。目的是要了解例如高斯模糊内核是否能够实际上将从其中得出第一径向频谱202的第一图像变换成从其中得出第二径向频谱204的第二图像。参照图4,在一个示例中,采用具有0.9像素标准偏差宽度的高斯内核来模糊206第一径向频谱202。在图4中能够看到,模糊图像206的谱偏离成像系统所捕获的实际图像204。对于高斯内核的不同标准偏差能够显示相似行为,并且对于其它模糊内核、例如具有不同标准偏差的pillbox内核也能够显示相似行为。
因此,能够观察到,高斯和pillbox模糊核心均不能可接受地从另一个图像再现一个散焦图像。因此,按照本发明,与透镜的PSF有关的信息根据实验或经验来得到,而不是使用诸如高斯或pillbox之类的理论内核。在示范图3和图4中看到,高频含量看起来存在于两种图像中,这能够归因于电子和量化噪声。因此,对于DFD计算能够依靠图像的高频含量是不太可能的。因此,低通前置滤波器能够用于在进一步处理之前去除谱的高频部分。
相应地,按照本发明,如果成像透镜没有呈现典型高斯、pillbox或其它分析形式PSF,则所需信息能够根据经验或者通过光瞳图来得出,以用于设计可靠的基于DFD的景深估计器。参照图5,框架300包括物体物平面302、出瞳304(对应于透镜306的位置)、像平面308和(例如电荷耦合器件即CCD的)检测器平面310。光子从物平面302发出,经过出瞳304,并且在像平面308形成清晰图像,像平面308根据成像系统的距离和特性可以不与检测器平面310的位置重合。因此,系统300表示能够改变其焦距的成像系统。  
成像透镜特性简化为其出瞳。通常,光瞳函数图(或光瞳图)是空间中的给定物体位置的成像系统的出瞳处的波前。如本领域已知,当物平面302与出瞳304之间的距离zo改变时,离出瞳304的距离zi处的像平面308同样地改变。因此并且为了便于说明,期望知道zo的值,这将像平面308放置成与检测器平面310重合,使得可得到物平面302处的物体的清晰或锐聚焦图像。按照一个实施例并且如所示,透镜306可定位在活动台架312上,活动台架312本身可沿平移轴314是可平移的,这可用于得到定位在物平面302的物体的多个元素图像。通常,元素图像是采用特定透镜设定和配置(即,焦距)所拍摄的单个图像。按照本发明,距离zo可通过其它方式来改变。例如,物平面302处的物体可改为由能够沿平移轴314平移物平面302的物体平移器316来平移。此外,按照本发明,距离zo还可使用本领域已知的其它技术来改变,包括但不限于可变路径窗口、棱镜、压电平移器、双折射光学器件等。因此,距离zo可在实际上并且在物理上受到物体和/或透镜的物理移动影响,或者距离zo可实际上通过使用例如作为示例的可变路径窗口、棱镜或双折射光学器件改变其间的视距来影响。
现在参照图6,其中示出得到物体的景深的方法。以及如所述,虽然本发明的实施例描述为它们与指纹图像的获取相关,但是预期本文所述的本发明可适用于更广义范围的成像技术。例如,在其它应用中,DFD技术不是最佳的,因为已知内核没有充分表示成像系统的性质,例如透镜的PSF。
图6示出按照本发明的具有离线组件402和在线组件404的技术或方法400。一般来说,离线组件402包括用于根据经验来表征透镜、例如图5的系统中所示的透镜306的步骤。在线组件404包括通过考虑从离线组件402所得出的透镜的表征以及PSF或光瞳函数的图像的获取及其操纵。  
整体技术400描述如下:又参照图5,光瞳函数表示为p(x,y)以及具有能够通过透镜设计软件包或者根据经验通过包括干涉测量的各种方法来找到的h(x,y)的PSF。注意,成像平面上的光瞳函数和PSF具有如下关系: 
Figure 2012102860785100002DEST_PATH_IMAGE006
;        等式2
其中,
Figure 2012102860785100002DEST_PATH_IMAGE008
表示傅立叶变换,γ表示透镜上的特定焦点设置,以及λ是照明波长。当傅立叶对的缩放形式通过傅立叶变换相关为:
Figure 2012102860785100002DEST_PATH_IMAGE010
;      等式3
能够写作:
Figure 2012102860785100002DEST_PATH_IMAGE012
;   等式4
但是,由于检测器平面一般没有与像平面重合,所以二次相位因子(散焦)能够用于补偿光瞳函数并且说明这个距离:
;        等式5
其中,
Figure 2012102860785100002DEST_PATH_IMAGE016
与像平面和检测器平面之间的距离相关,并且当成像条件成立、即
Figure 2012102860785100002DEST_PATH_IMAGE018
时成为零。
随后,检测器上形成的图像能够写作PSF与理想图像之间的卷积,例如:
;               等式6
通过调用傅立叶变换的对偶原理,能够表明:
Figure 2012102860785100002DEST_PATH_IMAGE022
;          等式7
因此, 
Figure 2012102860785100002DEST_PATH_IMAGE024
;           等式8
图像谱能够改写作: 
Figure 2012102860785100002DEST_PATH_IMAGE026
;      等式9
以及谱比值为: 
Figure 2012102860785100002DEST_PATH_IMAGE028
;               等式10
这对于不同的
Figure 2012102860785100002DEST_PATH_IMAGE030
正确地成立,并且能够在极坐标中表示为: 
Figure 2012102860785100002DEST_PATH_IMAGE032
;                   等式11
其中,引起
Figure 2012102860785100002DEST_PATH_IMAGE036
。下标p表示极坐标。
在一个示例中,光瞳函数能够采用泽尔尼克(Zernike)多项式表示为: 
Figure 2012102860785100002DEST_PATH_IMAGE038
,   等式12
泽尔尼克多项式是如等式12所示的能够用于有效地描述波前的一组多项式函数。它们充当描述更复杂函数的基本函数。但是,预期本发明并不局限于采用泽尔尼克多项式的光瞳函数的表达式,而是可使用诸如阿贝(Abbe)公式之类的其它函数。 
代入等式12产生: 
Figure 2012102860785100002DEST_PATH_IMAGE040
;
等式13
这是具有焦点设定相关系数的多项式,并且能够简写为: 
Figure 2012102860785100002DEST_PATH_IMAGE042
;     等式14
参照等式13,按照本发明,离线计算402提供第二分数的值,并且能够处理(傅立叶变换)经由在线组件404所获取的元素图像,以便计算第一分数。按照本发明,极小化策略则是查找物距zo,使得两个分数之间的差成为零。这个过程对于手指上的许多点进行,以便绘出表面。 
如所述,按照本发明的离线组件402包括使用一系列数学步骤对透镜的表征,下面进行论述。在谱域DFD算法中,需要知道给定点源的CCD上的强度分布的傅立叶变换。如图5所示,像平面和CCD平面没有重合,并且因此PSF和光瞳函数之间的简单傅立叶关系无效。但是,光瞳函数与CCD平面之间的角谱传播能够用于基于光瞳函数(采用附加二次相位来调整)的傅立叶变换(角谱)来计算CCD平面上的光分布的傅立叶变换(在(x,y)平面的角谱)。下式示出该过程: 
Figure 2012102860785100002DEST_PATH_IMAGE044
;             等式15
参照图5,示意图示出在出瞳、CCD和像平面的坐标系以及指纹透镜的典型尺寸。出瞳与CCD平面之间的距离zd是固定的,但是,出瞳与像平面之间的距离根据物体位置和透镜焦点配置而变化。透镜306的出瞳的尺寸对于不同物距略有改变。 
为了计算光瞳函数的傅立叶变换,需要极大的(例如35000×35000)离散傅立叶变换(DFT)计算,这会是不容许的。这是因为参考球形波前在光瞳的边缘呈现快速相位波动的事实。为了计算这种场的角谱,空间取样应当满足尼奎斯特(Nyquist)标准。以下计算按照一个示例示出空间取样周期(和矩阵的大小)是什么:
表示zf=55 mm(光瞳到图像点距离)的参考球面聚焦的光瞳的边缘(D=32 mm)的平面波前的最大余弦角为: 
Figure 2012102860785100002DEST_PATH_IMAGE046
;      等式16
按照关系,
Figure 2012102860785100002DEST_PATH_IMAGE048
,这表明:
Figure 2012102860785100002DEST_PATH_IMAGE050
;  等式17
按照尼奎斯特速率,捕获这个频率要求
Figure 2012102860785100002DEST_PATH_IMAGE052
或者跨32 mm直径的波前的大约35000个样本的空间取样间隔。因此,DFT则应当对35000×35000矩阵进行操作,这会是不实际的,并且可引起欠取样。因此,在光瞳函数的角谱可间接地计算。  
波前的像差部分通常不是高频,并且其角谱能够通过DFT来计算。这表明将总光瞳波前角谱的分解为两个问题: 
1.        通过DFT来计算波前像差的角谱。 
2.        直接计算预定频率的参考球形波的角分量(平面波前)。由于我们完全知道这些平面波前是什么,所以能够在光瞳的任何位置计算它们,而无需引入DFT所引起的混叠。 
跨光瞳的取样能够比较稀疏(例如128×128)。在这个示例中,透镜像差不是高频,因此能够在两个方向采用nab个样本来捕获。对于,nab=256,或者
Figure 2012102860785100002DEST_PATH_IMAGE054
,这引起的最大频率。 
如本领域已知,角分量能够对于各方向余弦对(α,β)直接计算。在位置(ξ,η)的光瞳平面上的平面波分量能够写作: 
Figure 2012102860785100002DEST_PATH_IMAGE058
;               等式18
其中,存在将任何(α,β)对转换成光瞳坐标(ξ,η)的图。这种关系定义为: 
Figure 2012102860785100002DEST_PATH_IMAGE060
;                           等式19,以及
    
Figure 2012102860785100002DEST_PATH_IMAGE062
;                         等式20
将频率映射到直接余弦的等式包括: 
Figure 977520DEST_PATH_IMAGE048
;                                   等式21,以及
   
Figure 2012102860785100002DEST_PATH_IMAGE064
.
因此,对于
Figure 2012102860785100002DEST_PATH_IMAGE066
的任何给定离散网格,平面波分量能够通过上式来计算。能够采取这种方式以直接计算在延伸到参考球面上存在的最大频率的预定义频率网格的角谱。由于当前示例中的最大频率为
Figure 2012102860785100002DEST_PATH_IMAGE068
,所以具有2000个元素的频率网格包含在各方向,覆盖[-538,+538] mm-1区域。对这个网格所计算的角分量因而将没有混叠。 
下一个步骤是进行像差波前与球形波前角频率之间的卷积。一旦参考波前和像差角谱均被计算,则它们能够经过卷积,以便达到总波前角谱: 
Figure 2012102860785100002DEST_PATH_IMAGE070
;        等式22
因此,按照本发明并且又参照图6,离线组件402在高层包括表征透镜406并且将透镜映射为数学函数408的步骤。离线组件402可表征为执行一次的校准步骤,它充分表征透镜,并且通过描述物体空间中的每一点的像差量的光瞳图函数进行。光瞳函数对于不同位置的物体发生变化。因此,离线组件402的结果提供透镜的表征,如所述,这产生等式13的第二分数所示的系数。更一般来说,可作为包括使用光瞳函数的一般等式来得到数学函数408,如等式11所示。但是,按照一个实施例,光瞳函数以数学方式通过如等式13中那样的泽尔尼克系数来描述为光瞳函数图。因此,透镜基于它对感兴趣体积中的不同位置的点源的响应来表征,并且表征表可在将物体的距离映射到能够在在线过程期间从图像来测量并且基于本文所公开的数学描述的一组参数的表中生成。
在线组件404包括符合以上数学描述的一系列高层步骤。在线组件404开始于获取期望生成其景深图的物体的两个或更多元素图像410。在步骤412选择物体的块,并且在步骤412使用例如已知DFF方法或算法从元素图像来估计最佳焦平面。一旦估计最佳焦平面,在步骤416得到元素图像之间的功率谱比,这将由此用于按照等式11与对应于相同元素图像位置所得到的透镜函数的比率进行比较。在步骤418,假定物距,并且在步骤420,基于在步骤408所得到的透镜函数并且基于从步骤418所假定的物距来计算函数比。在420,也按照等式11来比较比率,并且在步骤422,确定比率是否在阈值之内。如果不是424,则迭代继续进行,并且在步骤426修订物距假设,以及控制返回到步骤420,以便再次与在步骤416所得到的功率谱比进行比较。  
因此,按照本发明,得到元素图像,使用已知技术(DFF)来估计最佳焦平面,并且计算功率谱比。计算与元素函数的每个对应的映射函数,但是基于作为起始点的物距的假设。计算与元素图像对应的映射函数的比率以及元素图像本身的比率。由此,迭代包括通过修订所假定的物距来修订映射函数比,这持续进行到两个比率与适当阈值相当。总之,在两个不同透镜设定(例如焦距)的光瞳函数的比率等于两个透镜设定所形成的两个图像之间的功率谱的比率。两个最佳聚焦元素图像之间的功率谱的比率(能够通过DFF来找出,而与zo无关)最接近等于zo的物距的光瞳函数的比率的距离zo。这个距离zo是物体离透镜的估计距离。
仍然参照图6,一旦比率是可接受地接近428,则在步骤430得到在步骤412所选块的最终距离。在步骤432,确定是否将评估附加块。如果是的话434,则控制又转到步骤412,选择另一个块,并且该过程对于新选取的块重复进行。但是,如果没有附加块436,则该过程在步骤438结束,其中生成完整景深图。
按照本发明的附加实施例,非接触式多指纹采集装置配置成获取受检者的手指的指纹数据,无需受检者的手处于静止位置,而是通过成像体积移动(即,挥动或摇动)。也就是说,不是指导受检者将其手指放入所指定图像捕获位置,非接触式多指纹采集装置而是用于跟踪受检者手指的位置,使图像捕获装置获取手指的图像。  
按照本发明的实施例,一个或多个定位检验装置可包括用作用于为了控制图像捕获装置而检验和跟踪受检者的手在成像体积中的移动的跟踪装置的装置(例如吊式照相机)。也就是说,各图像捕获装置的视场和焦深能够基于跟踪装置所跟踪的受检者的手/手指的移动和放置来单独设置,以使得实现个人手指的跟随。各图像捕获装置的视场的移动能够经由一个或多个元件的机械致动或者经由各图像捕获装置的电子/数字控制来实现。例如,在机械地致动一个或多个元件以移动视场的一个实施例中,可旋转定位在图像捕获装置邻近的反射镜,或者可移动透镜元件,以便移动图像捕获装置的视场。在实现电子或数字控制机构的一个实施例中,图像捕获装置中的传感器(即照相机传感器)可控制成移动图像捕获装置的视场。  
各种方法可用于配准图像。本文所使用的“配准”指的是将单个受检者的不同图像变换到一个坐标系中的过程。在指纹的上下文中,配准图像从指纹的所捕获图像来得出。配准图像具有相同标度和特征位置。 
为了确保来自多个移动的图像的特征近似配准,也通常也使用将放大率保持在窄范围之内的焦阑透镜系统。但是,如本领域已知,焦阑光圈的添加固有地增加f数,可引起过度景深。
在某些配准实施例中,配准可使用采用正射纠正(ortho-rectification)的地理信息系统(GIS)。正射纠正是重新映射图像以便从正常透视图像中消除表面变化和照相机位置的影响的过程。所产生的多个图像是共同平面上的透视校正投影,表示没有像素到像素对应性的放大变化。在某些实施例中,正射纠正可包括使用图像捕获装置的3D校准信息使每个所捕获图像不失真并且将图像投影到一个平面上。
一旦配准图像,则图像融合用于从同一目标的多个图像来创建单个高清晰度图像。一般来说,图像融合是把来自多个图像的信息组合为单个图像的过程,而在所述实施例中,这个信息指的是各图像中的局部空间聚焦信息。重新融合图像合乎需要地看起来完全是焦点对准的,而源图像在不同的特定区域中是焦点对准的。这可通过使用所选量度来实现。这些量度基于如下事实来选择:与良好焦点对准的那些像素相比,图像的模糊部分的像素呈现不同的特征等级。聚焦图像通常包含较高频率,而模糊图像具有较低频率分量。
在某些实施例中,某些量度可用于计算指纹的每个单独所得图像的各像素的焦点等级。单独图像则经过归一化并且使用像素的加权组合进行组合,以便得到单个融合或合成图像。因此,对于所获取图像的每个,感兴趣区域通过图像分段来确定。从不同的量度,图像中的各位置的焦点计算为特征的加权组合,然后使用特征的所述局部加权组合来组合图像。
在生成指纹的合成图像时,多个指纹的每个的合成图像的轮廓图或“景深图”使用所公开的散焦测距(DFD)算法来计算/生成。聚焦测距分析/计算是一种组合在不同焦点距离所捕获的多个图像以便提供将各图像中的焦点对准位置与捕获特定图像的已知焦点距离相关的3D图的图像分析方法。 
为了将所捕获的指纹图像与基于2D数据捕获的标准数据库进行匹配,从所公开的DFD算法所得到的3D模型可用于生成展开的2D图像。所使用的模型模拟与通过接触方法所得到的二维投影上的指纹表面的投影的反转对应的图像失真。
因此,按照本发明的一个实施例,成像系统包括:可定位装置,配置成轴向移动像平面,其中从发自物体并且经过透镜的光子来生成像平面;检测器平面,定位成接收经过透镜的物体的光子;以及计算机,编程为将透镜表征为数学函数,以相对于检测器平面的不同轴向位置的各元素图像的像平面来获取物体的两个或更多元素图像,基于透镜的表征并且基于所获取的两个或更多元素图像来确定物体离透镜的聚焦距离,并且基于所确定距离来生成物体的景深图。
按照本发明的另一个实施例,成像方法包括以数学方式将透镜表征为数学函数,以相对于检测器的不同轴向位置的物体的像平面来获取物体的两个或更多元素图像,基于透镜的数学表征并且基于第一和第二元素图像来确定像平面到物体的聚焦距离以使得像平面位于检测器处,以及基于该确定来生成物体的景深图。
按照本发明的又一个实施例,非暂时计算机可读存储介质上存储了包含指令的计算机程序,指令在由计算机运行时使计算机得出透镜的光瞳函数,在相对于检测器的物体的像平面的不同位置获取物体的元素图像,基于光瞳函数并且基于物体的第一块的所获取元素图像来确定放置物体的第一块的像平面的位置,以及基于该确定来生成物体的景深图。
所公开方法和设备的技术贡献在于,它提供用于散焦测距的计算机实现系统和方法以及更具体来说是非接触式多指纹采集装置。
本领域的技术人员会理解,本发明的实施例可与其上存储了计算机程序的计算机可读存储介质进行接口并且由其控制。计算机可读存储介质包括多个组件,例如一个或多个电子组件、硬件组件和/或计算机软件组件。这些组件可包括一个或多个计算机可读存储介质,它一般存储诸如软件、固件和/或汇编语言之类的指令,用于执行序列的一个或多个实现或实施例的一个或多个部分。这些计算机可读存储介质一般是非暂时和/或有形的。这种计算机可读存储介质的示例包括计算机和/或存储装置的可记录数据存储介质。计算机可读存储介质可采用例如磁、电、光、生物和/或原子数据存储介质的一个或多个。此外,这类介质可采取例如软盘、磁带、CD-ROM、DVD-ROM、硬盘驱动器和/或电子存储器的形式。未列示的其它形式的非暂时和/或有形计算机可读存储介质可与本发明的实施例配合使用。
在系统的一个实现中,能够组合或分离多个这类组件。此外,这类组件可以是采用多种编程语言的任一种来编写或实现的一组和/或一系列计算机指令,这是本领域的技术人员会理解的。另外,例如载波等的其它形式的计算机可读介质可用于体现表示指令序列的计算机数据信号,指令序列在由一个或多个计算机运行时使一个或多个计算机执行序列的一个或多个实现或实施例的一个或多个部分。
本书面描述使用示例来公开本发明,其中包括最佳模式,并且还使本领域的技术人员能够实施本发明,包括制作和使用任何装置或系统以及执行任何结合的方法。本发明的专利范围由权利要求书来定义,并且可包括本领域的技术人员想到的其它示例。如果这类其它示例具有与权利要求书的文字语言完全相同的结构元件,或者如果它们包括具有与权利要求书的文字语言的非实质差异的等效结构元件,则它们意在落入权利要求书的范围之内。

Claims (24)

1. 一种成像系统,包括:
可定位装置,配置成轴向移动像平面,其中从发自物体并且经过透镜的光子来生成所述像平面;
检测器平面,定位成接收经过所述透镜的所述物体的光子;以及
计算机,编程为:
将所述透镜表征为数学函数; 
以相对于所述检测器平面的不同轴向位置的各元素图像的所述像平面来获取所述物体的两个或更多元素图像; 
基于所述透镜的表征并且基于所获取的所述两个或更多元素图像来确定物体离所述透镜的聚焦距离;以及
基于所述所确定距离来生成物体的景深图。
2. 如权利要求1所述的系统,其中,所述计算机在编程为表征所述透镜时还编程为将所述透镜表征为透镜像差剖面的函数以及作为对相对于所述透镜定位在不同位置的点源的响应的点扩展函数(PSF)。
3. 如权利要求2所述的系统,其中,所述计算机编程为将所述PSF建模为采取多个多项式形式来表示的所述成像系统的光瞳函数的傅立叶变换。
4. 如权利要求3所述的系统,其中,所述多个多项式是高达三阶像差的泽尔尼克多项式。
5. 如权利要求1所述的系统,其中,所述物体是手指,并且所述物体的所述两个或更多元素图像包括所述手指的指纹的至少两个块。
6. 如权利要求1所述的系统,其中,所述计算机编程为使用所述两个元素图像之间的功率谱比来确定所述物距。
7. 如权利要求6所述的系统,其中,当所述物体为三维物体时,则所述功率谱比确定在所述两个或更多元素图像的两个元素图像中的关联块之间。
8. 如权利要求6所述的系统,其中,所述计算机编程为使用傅立叶变换来确定所述功率谱比。
9. 如权利要求6所述的系统,其中,所述计算机编程为: 
计算与所述第一元素图像对应的光瞳函数的第一值; 
计算与所述第二元素图像对应的所述光瞳函数的第二值;
确定所述函数的第一值与所述函数的第二值的比率;以及
使下列项之间的差为最小:
所述第一值与所述第二值的比率;以及
所述功率谱比;
其中通过以数学方式搜索实现极小化的从所述物体到所述透镜的距离来使所述差为最小。
10. 一种成像方法,包括:
以数学方式将透镜表征为数学函数;
以相对于检测器的不同轴向位置的物体的像平面来获取所述物体的两个或更多元素图像; 
基于所述透镜的所述数学表征并且基于所述第一和第二元素图像来确定所述像平面到所述物体的第一聚焦距离,使得所述像平面位于所述检测器处;以及
基于所述确定来生成所述物体的景深图。
11. 如权利要求10所述的方法,其中,以数学方式表征所述透镜包括以数学方式将所述透镜表征为基于所述透镜的像差剖面并且基于对相对于所述透镜定位在不同位置的点源的响应的数学函数。
12. 如权利要求10所述的方法,其中,所述第一聚焦距离是到所述物体的第一块的距离,并且所述方法还包括:
基于所述透镜的数学表征并且基于所述两个或更多元素图像来确定所述物平面到所述物体的第二聚焦距离,其中所述第二聚焦距离是到所述物体的第二块的距离;以及
使用所述物体的所述第一块和所述物体的所述第二块来生成所述景深图。
13. 如权利要求10所述的方法,其中,以数学方式表征所述透镜还包括:
将点扩展函数(PSF)建模为所述成像系统光瞳函数的傅立叶变换;以及
将所述光瞳函数表示为一个或多个多项式。
14. 如权利要求13所述的方法,其中,表示所述光瞳函数还包括将所述光瞳函数表示为高达三阶像差的一个或多个泽尔尼克多项式。
15. 如权利要求10所述的方法,包括: 
使用对于所述两个或更多元素图像中的两个所确定的功率谱的比率来确定所述两个或更多元素图像的元素图像比;以及
确定所述物体的所述像平面的第一焦距包括使用所述元素图像比。
16. 如权利要求15所述的方法,包括使用所述两个或更多元素图像中的两个的傅立叶变换来确定所述元素图像比。
17. 如权利要求15所述的方法,包括:
计算与所述两个或更多元素图像的第一元素图像对应的所述数学函数的第一值; 
计算与所述两个或更多元素图像的第二元素图像对应的所述数学函数的第二值;
计算所述第一值与所述第二值的数学函数比;以及
通过在计算所述数学函数的第一值和所述数学函数的第二值时以数学方式改变从所述物体到所述透镜的距离,来使所述元素图像比与所述数学函数比之间的差为最小。
18. 一种非暂时计算机可读存储介质,其上存储了包含指令的计算机程序,所述指令由计算机运行时使所述计算机:
得出透镜的光瞳函数;
在相对于检测器的物体的像平面的不同位置来获取所述物体的元素图像; 
基于所述光瞳函数并且基于所述物体的所述第一块的所获取元素图像来确定放置所述物体的所述第一块的像平面的位置;以及
基于所述确定来生成所述物体的景深图。
19. 如权利要求18所述的计算机可读存储介质,其中,所述计算机编程为通过编程为将所述透镜的焦点表征为基于所述透镜的像差剖面并且基于点源与所述透镜之间的距离的数学函数,来得出所述透镜的光瞳函数。
20. 如权利要求18所述的计算机可读存储介质,其中,所述物体是手指,并且所述所获取元素图像包括所述手指的指纹的至少两个块。
21. 如权利要求18所述的计算机可读存储介质,其中,使所述计算机通过将所述透镜建模为透镜像差剖面的函数并且将所述透镜建模为作为对相对于所述透镜定位在不同位置的点源的响应的点扩展函数(PSF),来得出所述透镜的光瞳函数。
22. 如权利要求21所述的计算机可读存储介质,其中,所述计算机编程为通过将所述透镜建模为表示为一个或多个泽尔尼克多项式的所述成像系统的光瞳函数的傅立叶变换,来将所述透镜建模为PSF。
23. 如权利要求18所述的计算机可读存储介质,其中,使所述计算机:
使用所述第一块的所获取元素图像中的两个的功率谱的比率来计算元素图像比;以及
使用所述元素图像比来确定放置所述第一块的像平面的位置。
24. 如权利要求23所述的计算机可读存储介质,其中,所述计算机编程为: 
计算与所述所获取元素图像的第一元素图像对应的所述光瞳函数的第一值; 
计算与所述所获取元素图像的第二元素图像对应的所述光瞳函数的第二值;
确定所述光瞳函数的第一值与所述光瞳函数的第二值的光瞳函数比;以及
使下列项之间的差为最小:
所述光瞳函数比;以及
所述元素图像比;
其中通过以数学方式确定实现所述极小化的从所述物体到所述透镜的出瞳的距离来使所述差为最小。
CN201210286078.5A 2011-10-13 2012-08-13 用于散焦测距成像的系统和方法 Active CN103116739B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/272424 2011-10-13
US13/272,424 US8340456B1 (en) 2011-10-13 2011-10-13 System and method for depth from defocus imaging

Publications (2)

Publication Number Publication Date
CN103116739A true CN103116739A (zh) 2013-05-22
CN103116739B CN103116739B (zh) 2017-11-24

Family

ID=47088641

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210286078.5A Active CN103116739B (zh) 2011-10-13 2012-08-13 用于散焦测距成像的系统和方法

Country Status (8)

Country Link
US (2) US8340456B1 (zh)
EP (1) EP2581877B1 (zh)
JP (1) JP6081101B2 (zh)
KR (1) KR102001678B1 (zh)
CN (1) CN103116739B (zh)
BR (1) BR102012020046A2 (zh)
CA (1) CA2785405C (zh)
ES (1) ES2868398T3 (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103856723A (zh) * 2014-02-25 2014-06-11 中国人民解放军国防科学技术大学 一种单透镜成像的psf快速标定方法
CN103927542A (zh) * 2014-04-25 2014-07-16 陕西科技大学 一种三维指纹特征提取方法
CN104519328A (zh) * 2013-10-02 2015-04-15 佳能株式会社 图像处理设备、图像捕捉装置和图像处理方法
CN104751103A (zh) * 2013-12-26 2015-07-01 齐发光电股份有限公司 手指指纹读取系统及指纹读取方法
CN105376469A (zh) * 2014-11-03 2016-03-02 倪蔚民 一种用于生物特征识别移动终端的驱动自动聚焦方法
CN105701451A (zh) * 2015-12-31 2016-06-22 联想(北京)有限公司 一种信息处理方法和电子设备
CN105824027A (zh) * 2015-01-07 2016-08-03 原相科技股份有限公司 光学测距方法与光学测距系统
US9958267B2 (en) 2015-12-21 2018-05-01 Industrial Technology Research Institute Apparatus and method for dual mode depth measurement
US10088568B2 (en) 2014-12-29 2018-10-02 Pixart Imaging Inc. Method and system for optical distance measurement
CN109151301A (zh) * 2017-06-28 2019-01-04 三星电子株式会社 包括相机模块的电子装置
CN110175494A (zh) * 2018-07-06 2019-08-27 神盾股份有限公司 光学指纹感测装置
CN110470219A (zh) * 2019-08-16 2019-11-19 福建农林大学 基于边缘频谱保留的散焦图像测距方法及装置
US10803295B2 (en) 2018-12-04 2020-10-13 Alibaba Group Holding Limited Method and device for face selection, recognition and comparison
CN112965060A (zh) * 2021-02-19 2021-06-15 加特兰微电子科技(上海)有限公司 生命特征参数的检测方法、装置和检测体征点的方法
US11340352B2 (en) 2014-12-29 2022-05-24 Pixart Imaging Inc. Image noise compensating system, and auto clean machine

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9230306B2 (en) 2012-02-07 2016-01-05 Semiconductor Components Industries, Llc System for reducing depth of field with digital image processing
US8830380B2 (en) * 2012-06-28 2014-09-09 International Business Machines Corporation Depth of focus in digital imaging systems
US9066002B2 (en) * 2012-08-29 2015-06-23 Sony Corporation System and method for utilizing enhanced scene detection in a depth estimation procedure
AU2012258467A1 (en) * 2012-12-03 2014-06-19 Canon Kabushiki Kaisha Bokeh amplification
US9325971B2 (en) * 2013-01-10 2016-04-26 The Regents Of The University Of Colorado, A Body Corporate Engineered point spread function for simultaneous extended depth of field and 3D ranging
TW201503687A (zh) * 2013-07-15 2015-01-16 Chi Mei Comm Systems Inc 拍照控制系統及方法
TWI594632B (zh) * 2013-12-31 2017-08-01 佳能企業股份有限公司 一種影像補正參數的設定方法、電子裝置、電子裝置可讀取的儲存媒體與應用於電子裝置的程式
FR3020871B1 (fr) * 2014-05-07 2017-08-11 Areva Dispositif et procede de reconstruction tridimensionnelle d'une scene par analyse d'image
US9746323B2 (en) 2014-07-25 2017-08-29 Lockheed Martin Corporation Enhanced optical detection and ranging
US9338363B1 (en) * 2014-11-06 2016-05-10 General Electric Company Method and system for magnification correction from multiple focus planes
KR102432735B1 (ko) * 2015-05-27 2022-08-17 엘지이노텍 주식회사 모션 인식장치
US9760986B2 (en) 2015-11-11 2017-09-12 General Electric Company Method and system for automated shaped cooling hole measurement
US9715721B2 (en) 2015-12-18 2017-07-25 Sony Corporation Focus detection
EP3185209B1 (en) * 2015-12-23 2019-02-27 STMicroelectronics (Research & Development) Limited Depth maps generated from a single sensor
US10715718B2 (en) * 2018-03-15 2020-07-14 Taiwan Semiconductor Manufacturing Company, Ltd. Phase detect auto-focus three dimensional image capture system
KR102472156B1 (ko) * 2018-04-19 2022-11-30 삼성전자주식회사 전자 장치 및 그 깊이 정보 생성 방법
US10753734B2 (en) * 2018-06-08 2020-08-25 Dentsply Sirona Inc. Device, method and system for generating dynamic projection patterns in a confocal camera
SE1830320A1 (en) * 2018-11-03 2020-05-04 Tracy Of Sweden Ab Method and arrangement for identifying object
US10957035B2 (en) * 2018-11-30 2021-03-23 Kla Corporation Defect classification by fitting optical signals to a point-spread function
US20210356492A1 (en) * 2020-05-15 2021-11-18 Em Photonics, Inc. Wind determination method, wind determination system, and wind determination computer program product for determining wind speed and direction based on image analysis
CN112417717B (zh) * 2020-10-27 2023-01-24 国网重庆市电力公司电力科学研究院 Gis内部检测激光聚焦检测成像分析方法及可读存储介质
WO2023096502A1 (en) * 2021-11-25 2023-06-01 Kahu.Ai Limited Methods and systems for determining a three-dimensional structure of a skin lesion

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6229913B1 (en) * 1995-06-07 2001-05-08 The Trustees Of Columbia University In The City Of New York Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two-images due to defocus
US20080297648A1 (en) * 2005-11-15 2008-12-04 Satoko Furuki Focus detection apparatus
CN101795361A (zh) * 2009-01-30 2010-08-04 索尼公司 用于基于两个影像的匹配进行深度估计的二维多项式模型
CN102156037A (zh) * 2010-02-12 2011-08-17 北方国通(北京)光电科技有限公司 光学检测装置及检测方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3639041A (en) * 1970-09-21 1972-02-01 Stanford Research Inst System and method for scanning the depth of the optic fundus
US4952815A (en) * 1988-04-14 1990-08-28 Nikon Corporation Focusing device for projection exposure apparatus
US5231443A (en) * 1991-12-16 1993-07-27 The Research Foundation Of State University Of New York Automatic ranging and automatic focusing
JPH06162187A (ja) * 1992-11-17 1994-06-10 Olympus Optical Co Ltd ボケ画像修復装置
EP0683389A1 (en) * 1994-05-12 1995-11-22 Kabushiki Kaisha Toshiba Laminograph and inspection and repair device using the same
US5883703A (en) * 1996-02-08 1999-03-16 Megapanel Corporation Methods and apparatus for detecting and compensating for focus errors in a photolithography tool
KR970067585A (ko) * 1996-03-25 1997-10-13 오노 시게오 결상특성의 측정방법 및 투영노광방법
US5878152A (en) 1997-05-21 1999-03-02 Cognex Corporation Depth from focal gradient analysis using object texture removal by albedo normalization
US6219461B1 (en) 1997-07-29 2001-04-17 Cognex Corporation Determining a depth
JP3803950B2 (ja) 1999-03-04 2006-08-02 株式会社リコー 画像合成処理方法、画像合成処理装置及び記録媒体
US6806899B1 (en) * 1999-07-17 2004-10-19 David F. Schaack Focusing systems for perspective dimensional measurements and optical metrology
JP4656706B2 (ja) * 2000-08-28 2011-03-23 オリンパス株式会社 撮像装置および焦点距離換算装置
US6842290B2 (en) * 2002-09-18 2005-01-11 Dmetrix, Inc. Multi-axis imaging system having individually-adjustable elements
WO2006016359A2 (en) * 2004-08-09 2006-02-16 Classifeye Ltd. Non-contact optical means and method for 3d fingerprint recognition
US7558709B2 (en) 2004-11-08 2009-07-07 Muralidhara Subbarao Methods and apparatus for computing the input and output signals of a linear shift-variant system
US7929801B2 (en) * 2005-08-15 2011-04-19 Sony Corporation Depth information for auto focus using two pictures and two-dimensional Gaussian scale space theory
US20080075444A1 (en) 2006-09-25 2008-03-27 Murali Subbarao Blur equalization for auto-focusing
JP4531070B2 (ja) * 2007-02-07 2010-08-25 京セラ株式会社 生体認証装置
DE102007018048A1 (de) * 2007-04-13 2008-10-16 Michael Schwertner Verfahren und Anordnung zur optischen Abbildung mit Tiefendiskriminierung
US7777872B2 (en) * 2007-07-31 2010-08-17 Alcon Research, Ltd. Method of measuring diffractive lenses
JP5213688B2 (ja) * 2008-12-19 2013-06-19 三洋電機株式会社 撮像装置
US8406487B2 (en) * 2009-09-16 2013-03-26 General Electric Company Method and system for contactless fingerprint detection and verification
US20110228070A1 (en) * 2009-11-07 2011-09-22 Courosh Mehanian System and Method for Determining Image Focus by Sampling the Image at Multiple Focal Planes Simultaneously

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6229913B1 (en) * 1995-06-07 2001-05-08 The Trustees Of Columbia University In The City Of New York Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two-images due to defocus
US20080297648A1 (en) * 2005-11-15 2008-12-04 Satoko Furuki Focus detection apparatus
CN101795361A (zh) * 2009-01-30 2010-08-04 索尼公司 用于基于两个影像的匹配进行深度估计的二维多项式模型
CN102156037A (zh) * 2010-02-12 2011-08-17 北方国通(北京)光电科技有限公司 光学检测装置及检测方法

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104519328A (zh) * 2013-10-02 2015-04-15 佳能株式会社 图像处理设备、图像捕捉装置和图像处理方法
US9581436B2 (en) 2013-10-02 2017-02-28 Canon Kabushiki Kaisha Image processing device, image capturing apparatus, and image processing method
CN104751103A (zh) * 2013-12-26 2015-07-01 齐发光电股份有限公司 手指指纹读取系统及指纹读取方法
CN103856723A (zh) * 2014-02-25 2014-06-11 中国人民解放军国防科学技术大学 一种单透镜成像的psf快速标定方法
CN103856723B (zh) * 2014-02-25 2015-02-11 中国人民解放军国防科学技术大学 一种单透镜成像的psf快速标定方法
CN103927542B (zh) * 2014-04-25 2017-04-26 陕西科技大学 一种三维指纹特征提取方法
CN103927542A (zh) * 2014-04-25 2014-07-16 陕西科技大学 一种三维指纹特征提取方法
CN105376469A (zh) * 2014-11-03 2016-03-02 倪蔚民 一种用于生物特征识别移动终端的驱动自动聚焦方法
CN105376469B (zh) * 2014-11-03 2018-11-13 苏州思源科安信息技术有限公司 一种用于生物特征识别移动终端的驱动自动聚焦方法
US11163063B2 (en) 2014-12-29 2021-11-02 Pixart Imaging Inc. Method and system for optical distance measurement
US10088568B2 (en) 2014-12-29 2018-10-02 Pixart Imaging Inc. Method and system for optical distance measurement
US11808852B2 (en) 2014-12-29 2023-11-07 Pixart Imaging Inc. Method and system for optical distance measurement
US11703595B2 (en) 2014-12-29 2023-07-18 Pixart Imaging Inc. Image noise compensating system, and auto clean machine
US11340352B2 (en) 2014-12-29 2022-05-24 Pixart Imaging Inc. Image noise compensating system, and auto clean machine
CN105824027A (zh) * 2015-01-07 2016-08-03 原相科技股份有限公司 光学测距方法与光学测距系统
CN105824027B (zh) * 2015-01-07 2019-01-11 原相科技股份有限公司 光学测距方法与光学测距系统
US9958267B2 (en) 2015-12-21 2018-05-01 Industrial Technology Research Institute Apparatus and method for dual mode depth measurement
CN105701451A (zh) * 2015-12-31 2016-06-22 联想(北京)有限公司 一种信息处理方法和电子设备
CN105701451B (zh) * 2015-12-31 2019-04-26 联想(北京)有限公司 一种信息处理方法和电子设备
US11048061B2 (en) 2017-06-28 2021-06-29 Samsung Electronics Co., Ltd Electronic device including camera module
CN109151301B (zh) * 2017-06-28 2022-02-11 三星电子株式会社 包括相机模块的电子装置
CN109151301A (zh) * 2017-06-28 2019-01-04 三星电子株式会社 包括相机模块的电子装置
CN110175494A (zh) * 2018-07-06 2019-08-27 神盾股份有限公司 光学指纹感测装置
US10803295B2 (en) 2018-12-04 2020-10-13 Alibaba Group Holding Limited Method and device for face selection, recognition and comparison
US11036967B2 (en) 2018-12-04 2021-06-15 Advanced New Technologies Co., Ltd. Method and device for face selection, recognition and comparison
CN110470219A (zh) * 2019-08-16 2019-11-19 福建农林大学 基于边缘频谱保留的散焦图像测距方法及装置
CN112965060A (zh) * 2021-02-19 2021-06-15 加特兰微电子科技(上海)有限公司 生命特征参数的检测方法、装置和检测体征点的方法

Also Published As

Publication number Publication date
EP2581877B1 (en) 2021-04-07
EP2581877A2 (en) 2013-04-17
KR102001678B1 (ko) 2019-07-18
JP2013089230A (ja) 2013-05-13
US8340456B1 (en) 2012-12-25
KR20130040121A (ko) 2013-04-23
CN103116739B (zh) 2017-11-24
EP2581877A3 (en) 2017-05-10
BR102012020046A2 (pt) 2013-11-12
CA2785405A1 (en) 2013-04-13
CA2785405C (en) 2019-09-10
JP6081101B2 (ja) 2017-02-15
US20130141538A1 (en) 2013-06-06
US8737756B2 (en) 2014-05-27
ES2868398T3 (es) 2021-10-21

Similar Documents

Publication Publication Date Title
CN103116739A (zh) 用于散焦测距成像的系统和方法
US10705326B2 (en) Autofocus system for a computational microscope
JP5362087B2 (ja) 距離情報を決定するための方法、距離マップを決定するための方法、コンピュータ装置、撮影システム、コンピュータプログラム
US8405742B2 (en) Processing images having different focus
US20160163053A1 (en) Depth map generation
Surh et al. Noise robust depth from focus using a ring difference filter
Molina et al. Bayesian multichannel image restoration using compound Gauss-Markov random fields
US9781412B2 (en) Calibration methods for thick lens model
Wu et al. Blind blur assessment for vision-based applications
EP3093822B1 (en) Displaying a target object imaged in a moving picture
CN106153579A (zh) 测量装置、测量方法和程序
Wang et al. A robust subpixel refinement technique using self‐adaptive edge points matching for vision‐based structural displacement measurement
Ghita et al. Computational approach for depth from defocus
Chen et al. Large depth-of-field microscopic structured-light 3D imaging with focus stacking
US20150302573A1 (en) Method for designing a passive single-channel imager capable of estimating depth of field
Xu et al. Robust passive autofocus system for mobile phone camera applications
TW202020732A (zh) 物體辨識方法及其裝置
KR20210086493A (ko) 디포커스 맵 추정을 위한 기계 학습 방법 및 장치
Kuhl et al. Monocular 3D scene reconstruction at absolute scales by combination of geometric and real-aperture methods
Wu et al. Discontinuity-induced measurement artifact reduction of structured light system based on a deconvolution method
Petrou et al. Super-resolution in practice: the complete pipeline from image capture to super-resolved subimage creation using a novel frame selection method
Park An image-based calibration technique of spatial domain depth-from-defocus
Alzuhiri et al. CAAP: A Novel Structured Light Based Sensing and Probabilistic Diagnostic Technique for Pipe Internal Corrosion Detection and Localization
Passmore Techniques in Convolutional Depth Measurements
CN118351155A (zh) 基于图像边缘的图像数据配准方法、产品、设备及介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant