CN107967703B - 一种基于连通域的光学扫描全息的自聚焦和重建方法 - Google Patents

一种基于连通域的光学扫描全息的自聚焦和重建方法 Download PDF

Info

Publication number
CN107967703B
CN107967703B CN201810011496.0A CN201810011496A CN107967703B CN 107967703 B CN107967703 B CN 107967703B CN 201810011496 A CN201810011496 A CN 201810011496A CN 107967703 B CN107967703 B CN 107967703B
Authority
CN
China
Prior art keywords
label
image
value
reconstruction
focusing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201810011496.0A
Other languages
English (en)
Other versions
CN107967703A (zh
Inventor
欧海燕
吴勇
邵维
王秉中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201810011496.0A priority Critical patent/CN107967703B/zh
Publication of CN107967703A publication Critical patent/CN107967703A/zh
Application granted granted Critical
Publication of CN107967703B publication Critical patent/CN107967703B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/457Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Holo Graphy (AREA)

Abstract

本发明提出了一种基于连通域的光学扫描全息的自聚焦和重建方法,属于光学扫描全息技术与图像重建领域,主要解决了光学扫描全息中的全息重建的问题。本发明利用连通域的方法,对全息图做图像标记并获取图像区域面积,通过面积变化规律实现全息图的自聚焦和重建。本发明有效地实现了光学扫描全息中的全息重建,这种图像重建的方法适用于各个领域。

Description

一种基于连通域的光学扫描全息的自聚焦和重建方法
技术领域
本发明属于光学扫描全息领域与图像重建领域,具体来说,涉及一种基于连通域的光学扫描全息的自聚焦和重建方法。
背景技术
光学扫描全息技术,简称OSH,它利用逐点扫描的方法将三维物体以二维数字图像形式存储,相较于一般的数字全息技术,其通过逐点扫描,因此其分辨率不受数字设备的限制,同时,其获得的全息图没有干涉引起的斑点噪声。自该技术提出以来,已在多个领域得到了应用,比如:扫描全息显微镜、3D图像识别以及3D光学遥感等领域。
全息图的重建一直是全息领域的一个研究热点,到目前为止,已经做了很多相关工作。在全息重建的过程中,首先,需要找到重建的距离,因此有了很多有关自聚焦的方法提出,比如:最小熵、结构张量、边缘检测数等技术;然后,就需要找到一个好的重建算法,能够在重建的时候具有较小的离焦噪声。
文献“Extended focused imaging and depth map reconstruction in opticalscanning holography”利用每个像素在邻域上的最小熵来构建深度图,从而实现对各个像素的自聚焦,但其中由于邻域的大小设置会造成自聚焦的位置不准确,从而引起重建的图像出现锯齿现象。
文献“Enhanced Autofocusing in Optical Scanning Holography Based onHologram Decomposition”利用图像分割的方法增强最小熵法的自聚焦精度,并利用图像分割的方法消除全息重建过程中的离焦噪声,但其对于像个较近的物体,其存在图像不能分割的问题。
根据以上叙述,光学扫描全息技术中的自聚焦和重建依然存在很多问题,本发明针对以上问题提出了一种基于连通域的光学扫描全息的自聚焦和重建方法。
发明内容
本发明的目的在于实现光学扫描全息下的自聚焦和重建,提出一种基于连通域的光学扫描全息的自聚焦和重建方法,该方法利用连通域标记全息图的不同连通区域,通过确定连通区域的最小面积,找到连通区域的聚焦位置,并通过连通域做图像分割实现全息图的无噪重建。
本发明为达到发明目的所采用的方法是:
一种基于连通域的光学扫描全息的自聚焦和重建方法,包括以下步骤:
步骤1.频率为ω0的光束通过第一光瞳和第一凸透镜后形成平面波,频率为ω0+Ω的光束通过第二光瞳和第二凸透镜后形成球面波;然后,两束光波经过分束器,并干涉形成菲涅尔波带板,又经X-Y扫描振镜反射后,对物体进行扫描;最后,由光电转换器接收并转换为电信号,从而获得全息图;
步骤2.利用全息重建技术在各个重建距离下重建全息图,利用连通域的方法对重建全息图的不同区域实现标记,并计算各个区域的面积,面积最小的位置即为自聚焦的位置;
步骤3.通过获取的自聚焦位置对全息图重建,并利用连通域的方法分割图像获取重建图像。
进一步的,步骤1获得全息图的具体过程如下:
步骤1-1.两束频率为ω0和ω0+Ω的光束分别经过第一光瞳p1(x,y)、第一凸透镜L1和第二光瞳p2(x,y)、第二凸透镜L2,其中p1(x,y)=1,p2(x,y)=δ(x,y);
步骤1-2.两束光波经过分束器BS,并干涉形成菲涅尔波带板,其光学传递函数可表示为:
其中,x和y表示待扫描物体的位置,zi表示X-Y扫描振镜到待测物体第i层的距离,i=1,2,...,N,N为待测物体沿轴向离散的层数,表示波数,λ表示光波波长,kx和ky表示频域坐标;
步骤1-3.菲涅尔波带板扫描物体,透过物体的光波被光电转换器PD接收并转换成电信号;得到全息图为:
其中,F-1和F分别表示逆傅里叶变换和傅里叶变换,O(x,y;zi)表示物体第i层的振幅函数,表示卷积。
步骤2利用连通域的方法实现自聚焦,其具体步骤如下:
步骤2-1.利用全息重建技术沿着轴向距离zk重建,其中k=1,2,...N1,N1为重建层数,且N1>N,其重建过程可表示为:
其中,O(x,y;zk)表示待测物体第k层的振幅函数,I(x,y;zk)表示重建得到的第k层物体的振幅函数。
步骤2-2.利用连通域的方法标记重建图像的各个连通区域,并计算各个连通区域的面积。其具体如下:
步骤2-2-1.初始化标记值label=1,初始化与全息图相同维度的图像M(label),M(label)的初始值为零矩阵;
步骤2-2-2.逐像素搜索图像,若该搜索像素处图像值为0,搜索下一个像素;若该搜索像素处图像值不为0,label的值赋给M(label)中的对应位置;像素搜索完毕时截止,得到被连通域标记的图像M(label)并转至步骤2-3;
步骤2-2-3.搜索该像素的八邻域的图像值是否全部为0,若有值不为0,则不为0处,将label的值赋给M(label),并执行步骤2-2-4;若值都为0,则表示一个新的区域的开始,令label=label+1,返回步骤2-2-2;
步骤2-2-4.搜索邻域中图像值不为0的像素,并扫描这些像素对应的八邻域的图像值是否全部为0;
若有图像值不为0,则label的值赋给M(label),重复执行步骤2-2-4直至图像值都为0并令label=label+1;
若图像值都为0,则label=label+1;
返回步骤2-2-2;
步骤2-3.在图像M(label)中,不同区域被标记为不同的数字,通过计算对应连通域标记的数字个数,就可以得到相应区域的面积;
步骤2-4.令k=1,2,...N1,重复步骤2-1至步骤2-3,分别计算各个连通域对应的N1个面积,其中各个连通区域对应面积最小的位置,即为该区域对应的聚焦位置。
步骤3得到全息图重建图像的方法,其具体如下:
通过分割连通区域在聚焦位置处的重建图像,即可得到在该聚焦位置的待测物体的图像:
F(x,y;zk)=I(x,y;zk)·M(label=n)
其中,I(x,y;zk)为重建得到的第k层物体的振幅函数,M(label=n)为label值等于n的矩阵;经过上式可以分割出聚焦的连通区域。
本发明的有益效果是:
(1)本发明使用了连通域和光学扫描全息技术,通过使用连通域标记重建图像,获得各个连通域的面积,又利用当连通区域聚焦时,连通区域面积最小的性质,实现了光学扫描全息技术下的自聚焦;
(2)本发明使用连通域的方法直接分割聚焦连通区域,实现了光学扫描全息技术下,无离焦噪声重建。
(3)该方法相较于现有技术,方法更简单,效果更优,完全消除了离焦噪声对重建图像的影响;
(4)本发明不仅实现方式简单、便于操作,同时具有很强的使用性。
附图说明
图1为本发明实施例采用的基本结构图;
图2为本发明实施例采用的两层切片,(a)置于z1处,(b)置于z2处;
图3为本发明实施例获取的全息图;
图4为本发明实施例在任一重建距离下的重建图像,(a)未经过连通域标记的重建图像,(b)经过连通域标记后的重建图像;
图5为本发明实施例在不同重建距离zk上,经过连通域标记计算得到的面积延轴向的变化曲线,(a)为置于z1处的连通区域的面积变换曲线,(b)为置于z2处的连通区域的面积变换曲线;
图6为本发明实施例在聚焦位置处,经过连通域分割得到的重建图像,(a)为置于z1处的重建图像,(b)为置于z2处的重建图像。
具体实施方式
下面结合附图与实施例对本发明进进一步说明,本发明的实施方式包括但不限于下列实施例。
实施例:
本发明实施例所采用的基本结构如图1所示,其中光波的波长λ=632.8nm,凸透镜(L1和L2)的焦距都为75mm,X-Y扫描振镜到双层切片的距离分别为z1=14mm,z2=15mm,被扫描物体如图2所示,采用的切片尺寸为1mm×1mm,采样像素点为512×512。
本发明实施例提供一种基于连通域的光学扫描全息的自聚焦和重建方法,具体步骤如下:
步骤1.首先,频率为ω0的光束通过第一光瞳和第一凸透镜后形成平面波,频率为ω0+Ω的光束通过第二光瞳和第二凸透镜后形成球面波;然后,两束光波经过分束器,并干涉形成菲涅尔波带板,又经X-Y扫描振镜反射后,对物体进行扫描;最后,由光电转换器接收并转换为电信号,从而获得全息图;
步骤2.利用全息重建技术在各个重建距离下重建全息图,利用连通域的方法对重建全息图的不同区域实现标记,并计算各个区域的面积,面积最小的位置即为自聚焦的位置;
步骤3.通过获取的自聚焦位置对全息图重建,并利用连通域的方法分割图像获取重建图像。
进一步的,步骤1获得全息图的具体过程如下:
步骤1-1.两束频率为ω0和ω0+Ω的光束分别经过第一光瞳p1(x,y)、第一凸透镜L1和第二光瞳p2(x,y)、第二凸透镜L2,其中p1(x,y)=1,p2(x,y)=δ(x,y);
步骤1-2.两束光波经过分束器BS,并干涉形成菲涅尔波带板,其光学传递函数可表示为:
其中,x和y表示待扫描物体的位置,zi表示X-Y扫描振镜到待测物体第i层的距离,i=1,2,...,N,N为待测物体沿轴向离散的层数,表示波数,λ表示光波波长,kx和ky表示频域坐标;
步骤1-3.菲涅尔波带板扫描物体,透过物体的光波被光电转换器PD接收并转换成电信号;如图3所示,得到全息图为:
其中,F-1和F分别表示逆傅里叶变换和傅里叶变换,O(x,y;zi)表示物体第i层的振幅函数,表示卷积。
步骤2利用连通域的方法实现自聚焦,其具体步骤如下:
步骤2-1.利用全息重建技术沿着轴向距离zk重建,其中k=1,2,...N1,N1为重建层数,且N1>N,其重建过程可表示为:
其中,O(x,y;zk)表示待测物体第k层的振幅函数,I(x,y;zk)表示重建得到的第k层物体的振幅函数。
步骤2-2.利用连通域的方法标记重建图像的各个连通区域,并计算各个连通区域的面积。其具体如下:
步骤2-2-1.初始化标记值label=1,初始化与全息图相同维度的图像M(label),M(label)的初始值为零矩阵;
步骤2-2-2.逐像素搜索图像,若该搜索像素处图像值为0,搜索下一个像素;若该搜索像素处图像值不为0,label的值赋给M(label)中的对应位置;像素搜索完毕时截止,得到被连通域标记的图像M(label)并转至步骤2-3;
步骤2-2-3.搜索该像素的八邻域的图像值是否全部为0,若有值不为0,则不为0处,将label的值赋给M(label),并执行步骤2-2-4;若值都为0,则表示一个新的区域的开始,令label=label+1,返回步骤2-2-2;
步骤2-2-4.搜索邻域中图像值不为0的像素,并扫描这些像素对应的八邻域的图像值是否全部为0;
若有图像值不为0,则label的值赋给M(label),重复执行步骤2-2-4直至图像值都为0并令label=label+1;
若图像值都为0,则label=label+1;
返回步骤2-2-2;
步骤2-3.在图像M(label)中,不同区域被标记为不同的数字,通过计算对应连通域标记的数字个数,就可以得到相应区域的面积;未经过连通域标记的重建图像如图4(a)所示;被连通域标记的图像,如图4(b)所示;
步骤2-4.令k=1,2,...N1,重复步骤2-1至步骤2-3,分别计算各个连通域对应的N1个面积,其中各个连通区域对应面积最小的位置,即为该区域对应的聚焦位置,如图5所示。
步骤3得到全息图重建图像的方法,其具体如下:
通过分割连通区域在聚焦位置处的重建图像,即可得到在该聚焦位置的待测物体的图像,如图6所示:
F(x,y;zk)=I(x,y;zk)·M(label=n)
其中,I(x,y;zk)为重建得到的第k层物体的振幅函数,M(label=n)为label值等于n的矩阵;经过上式可以分割出聚焦的连通区域。
经过以上步骤,可以很好的实现本发明。该发明通过连通域标记重建图像的连通区域并计算连通区域的面积,通过寻找最小连通区域面积,实现光学扫描全息的自聚焦;同时利用连通域分割聚焦区域实现光学扫描全息的重建;该方法很好地解决了全息重建过程的难点,同时,该方法比现有技术更加简单易实施,可以适用于各个领域。

Claims (2)

1.一种基于连通域的光学扫描全息的自聚焦和重建方法,其特征在于,包括如下步骤:
步骤1.频率为ω0的光束通过第一光瞳和第一凸透镜后形成平面波,频率为ω0+Ω的光束通过第二光瞳和第二凸透镜后形成球面波;然后,两束光波经过分束器,并干涉形成菲涅尔波带板,又经X-Y扫描振镜反射后,对物体进行扫描;最后,由光电转换器接收并转换为电信号,从而获得全息图;
其中步骤1获得全息图的具体过程如下:
步骤1-1.两束频率为ω0和ω0+Ω的光束分别经过第一光瞳p1(x,y)、第一凸透镜L1和第二光瞳p2(x,y)、第二凸透镜L2,其中p1(x,y)=1,p2(x,y)=δ(x,y);
步骤1-2.两束光波经过分束器BS,并干涉形成菲涅尔波带板,其光学传递函数可表示为:
其中,x和y表示待扫描物体的位置,zi表示X-Y扫描振镜到待测物体第i层的距离,i=1,2,...,N,N为待测物体沿轴向离散的层数,表示波数,λ表示光波波长,kx和ky表示频域坐标;
步骤1-3.菲涅尔波带板扫描物体,透过物体的光波被光电转换器PD接收并转换成电信号;得到全息图为:
其中,F-1和F分别表示逆傅里叶变换和傅里叶变换,O(x,y;zi)表示物体第i层的振幅函数,表示卷积;
步骤2.利用全息重建技术在各个重建距离下重建全息图,利用连通域的方法对重建全息图的不同区域实现标记,并计算各个区域的面积,面积最小的位置即为自聚焦的位置;
利用连通域的方法实现自聚焦,其具体步骤如下:
步骤2-1.利用全息重建技术沿着轴向距离zk重建,其中k=1,2,...N1,N1为重建层数,且N1>N,其重建过程可表示为:
其中,O(x,y;zk)表示待测物体第k层的振幅函数,I(x,y;zk)表示重建得到的第k层物体的振幅函数;
步骤2-2.利用连通域的方法标记重建图像的各个连通区域,并计算各个连通区域的面积, 其具体如下:
步骤2-2-1.初始化标记值label=1,初始化与全息图相同维度的图像M(label),M(label)的初始值为零矩阵;
步骤2-2-2.逐像素搜索图像,若该搜索像素处图像值为0,搜索下一个像素;若该搜索像素处图像值不为0,label的值赋给M(label)中的对应位置;像素搜索完毕时截止,得到被连通域标记的图像M(label)并转至步骤2-3;
步骤2-2-3.搜索该像素的八邻域的图像值是否全部为0,若有值不为0,则不为0处,将label的值赋给M(label),并执行步骤2-2-4;若值都为0,则表示一个新的区域的开始,令label=label+1,返回步骤2-2-2;
步骤2-2-4.搜索邻域中图像值不为0的像素,并扫描这些像素对应的八邻域的图像值是否全部为0;
若有图像值不为0,则label的值赋给M(label),重复执行步骤2-2-4直至图像值都为0并令label=label+1;
若图像值都为0,则label=label+1;
返回步骤2-2-2;
步骤2-3.在图像M(label)中,不同区域被标记为不同的数字,通过计算对应连通域标记的数字个数,就可以得到相应区域的面积;
步骤2-4.令k=1,2,...N1,重复步骤2-1至步骤2-3,分别计算各个连通域对应的N1个面积,其中各个连通区域对应面积最小的位置,即为该区域对应的聚焦位置;
步骤3.通过获取的自聚焦位置对全息图重建,并利用连通域的方法分割图像获取重建图像。
2.根据权利要求1所述的基于连通域的光学扫描全息的自聚焦和重建方法,其特征在于步骤3中得到全息图重建图像的方法,其具体方法如下:
通过分割连通区域在聚焦位置处的重建图像,即可得到在该聚焦位置的待测物体的图像:
F(x,y;zk)=I(x,y;zk)·M(label=n)
其中,I(x,y;zk)为重建得到的第k层物体的振幅函数,M(label=n)为label值等于n的矩阵;
经过上式可以分割出聚焦的连通区域。
CN201810011496.0A 2018-01-05 2018-01-05 一种基于连通域的光学扫描全息的自聚焦和重建方法 Expired - Fee Related CN107967703B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810011496.0A CN107967703B (zh) 2018-01-05 2018-01-05 一种基于连通域的光学扫描全息的自聚焦和重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810011496.0A CN107967703B (zh) 2018-01-05 2018-01-05 一种基于连通域的光学扫描全息的自聚焦和重建方法

Publications (2)

Publication Number Publication Date
CN107967703A CN107967703A (zh) 2018-04-27
CN107967703B true CN107967703B (zh) 2019-06-21

Family

ID=61994077

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810011496.0A Expired - Fee Related CN107967703B (zh) 2018-01-05 2018-01-05 一种基于连通域的光学扫描全息的自聚焦和重建方法

Country Status (1)

Country Link
CN (1) CN107967703B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109597291B (zh) * 2018-11-30 2020-03-27 电子科技大学 一种基于卷积神经网络的光学扫描全息图像识别方法
CN110286464B (zh) * 2019-06-14 2020-12-25 浙江大学 一种基于面积准则的自动聚焦方法
CN112712877B (zh) * 2020-12-07 2024-02-09 西安电子科技大学 大视场高通量高分辨病理切片分析仪

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101513366A (zh) * 2009-03-18 2009-08-26 天津大学 基于ps-oct的三维可视化口腔龋齿检测装置及检测方法
RU2392635C2 (ru) * 2008-06-04 2010-06-20 Федеральное государственное унитарное предприятие "Государственный научно-исследовательский институт авиационных систем" Способ обнаружения и определения координат искомого объекта
CN102566391A (zh) * 2012-02-16 2012-07-11 中国科学院上海光学精密机械研究所 基于柱面镜聚焦的全息扫描高密度光栅的制备装置
RU157473U1 (ru) * 2015-04-17 2015-12-10 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Московский государственный технический университет имени Н.Э. Баумана" (МГТУ им. Н.Э. Баумана) Оптико-электронное устройство для контроля качества дифракционных и голографических элементов
CN105371780A (zh) * 2015-11-06 2016-03-02 西北大学 基于集成成像系统的光学三维相关识别装置及识别方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1139703A (ja) * 1997-07-14 1999-02-12 Sharp Corp ホログラムレーザユニット及び2焦点型の光ピックアップ装置
CA2925199A1 (en) * 2013-09-24 2015-06-25 Duke University Discrete-dipole methods and systems for applications to complementary metamaterials
CN105204311B (zh) * 2015-07-06 2018-05-18 电子科技大学 一种基于高斯切趾的光学扫描全息边缘检测方法
CN105184295B (zh) * 2015-07-27 2018-08-21 电子科技大学 一种基于小波变换与连通域的全息扫描空间距离提取方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2392635C2 (ru) * 2008-06-04 2010-06-20 Федеральное государственное унитарное предприятие "Государственный научно-исследовательский институт авиационных систем" Способ обнаружения и определения координат искомого объекта
CN101513366A (zh) * 2009-03-18 2009-08-26 天津大学 基于ps-oct的三维可视化口腔龋齿检测装置及检测方法
CN102566391A (zh) * 2012-02-16 2012-07-11 中国科学院上海光学精密机械研究所 基于柱面镜聚焦的全息扫描高密度光栅的制备装置
RU157473U1 (ru) * 2015-04-17 2015-12-10 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Московский государственный технический университет имени Н.Э. Баумана" (МГТУ им. Н.Э. Баумана) Оптико-электронное устройство для контроля качества дифракционных и голографических элементов
CN105371780A (zh) * 2015-11-06 2016-03-02 西北大学 基于集成成像系统的光学三维相关识别装置及识别方法

Also Published As

Publication number Publication date
CN107967703A (zh) 2018-04-27

Similar Documents

Publication Publication Date Title
CN107967703B (zh) 一种基于连通域的光学扫描全息的自聚焦和重建方法
Li et al. Document rectification and illumination correction using a patch-based CNN
Frauel et al. Digital three-dimensional image correlation by use of computer-reconstructed integral imaging
US5537669A (en) Inspection method and apparatus for the inspection of either random or repeating patterns
Kishk et al. Improved resolution 3D object sensing and recognition using time multiplexed computational integral imaging
KR20090055803A (ko) 다시점 깊이맵 생성 방법 및 장치, 다시점 영상에서의변이값 생성 방법
CN105184295B (zh) 一种基于小波变换与连通域的全息扫描空间距离提取方法
CN110645917A (zh) 基于阵列式相机的高空间分辨率三维数字图像测量方法
CN105841925A (zh) 一种基于探测器像素响应傅里叶谱获取的图像重建方法
CN106932437A (zh) 激光扫描热波锁相成像系统与方法
CN112924028B (zh) 一种面向海面溢油的光场偏振成像探测系统
CN109751969A (zh) 一种利用正反格雷码线移光栅的三维非接触扫描方法
CN105303572A (zh) 基于主被动结合的深度信息获取方法
CN111815697B (zh) 一种热变形动态三维测量方法
CN102805613A (zh) 一种基于两次扫描的高分辨率光学扫描全息切片成像方法
CN107835074B (zh) 一种消除随机加密光学扫描全息离焦噪声的方法
CN109151419A (zh) 一种基于拉东变换的单像素成像方法
CN106228169A (zh) 基于离散余弦变换的全息扫描空间的距离提取方法
CN104501781A (zh) 基于已知先验信息约束的叠层成像技术
CN109443250A (zh) 一种基于s变换的结构光三维面形垂直测量方法
CN117876562A (zh) 一种基于消费级rgb-d传感器对非朗伯表面进行纹理映射的优化方法
CN108153132B (zh) 一种基于均值梯度函数的光学扫描全息自聚焦方法
CN105825476A (zh) 一种应用于dsp的图像快速扫描拼接方式
CN108958000B (zh) 一种基于分类学习与二分法的光学扫描全息自聚焦方法
CN208766385U (zh) 基于多角度照明以及傅立叶域编码调制的层叠成像系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190621

Termination date: 20220105