CN115546285B - 基于点扩散函数解算的大景深条纹投影三维测量方法 - Google Patents

基于点扩散函数解算的大景深条纹投影三维测量方法 Download PDF

Info

Publication number
CN115546285B
CN115546285B CN202211487011.8A CN202211487011A CN115546285B CN 115546285 B CN115546285 B CN 115546285B CN 202211487011 A CN202211487011 A CN 202211487011A CN 115546285 B CN115546285 B CN 115546285B
Authority
CN
China
Prior art keywords
fringe
phase
dimensional
dimensional measurement
measured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211487011.8A
Other languages
English (en)
Other versions
CN115546285A (zh
Inventor
郑东亮
许征雷
于浩天
韩静
吕嫩晴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN202211487011.8A priority Critical patent/CN115546285B/zh
Publication of CN115546285A publication Critical patent/CN115546285A/zh
Application granted granted Critical
Publication of CN115546285B publication Critical patent/CN115546285B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/14Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Mathematical Optimization (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Pure & Applied Mathematics (AREA)
  • Software Systems (AREA)
  • Computational Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Algebra (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于点扩散函数解算的大景深条纹投影三维测量方法,包括以下步骤:通过投影仪对待测量物体投出基于傅里叶单像素成像(FSI)的编码条纹图片;将编码条纹图片用来求得傅里叶系数切片;将的傅里叶系数切片通过傅里叶逆变换得到PSF;通过三维测量系统采集待测物体的原始失焦图像;通过空间变化PSF对三维测量系统采集得到的失焦图像进行反卷积获取全聚焦图像;通过全聚焦图像通过相位恢复,相位展开后结合标定参数对相位重建出待测物体的三维信息。本发明在相同的相机曝光时间下,实现更高的信噪比测量,本发明方法不需要其他的硬件支持,更适合于FPP领域。

Description

基于点扩散函数解算的大景深条纹投影三维测量方法
技术领域
本发明涉及一种基于点扩散函数解算的大景深条纹投影三维测量方法,属于计算机视觉技术领域。
背景技术
光学三维测量技术已广泛应用于工业检测、智能制造、逆向工程等领域。条纹图案轮廓测量法(FPP)因其成本低、高精度和高速而成为最流行的领域之一。FPP算法通过对场景进行空间或时间编码条纹照明,并从观测到的变形条纹中恢复深度信息。大多数FPP系统使用固定焦距的大孔径镜头,以最大限度地提高光通量效率,导致测量大深度变化场景时精度下降和失去细节。即使是大景深的系统,捕获的条纹很难是理想的尖锐,由于透镜像差,衍射极限和可能的运动模糊。
扩展二维成像的自由度,特别是在计算摄影领域得到了广泛的研究。根据所使用的模糊核,这些计算方法可以分为深度相关方法和深度不变方法,深度相关方法包括盲反卷积、编码孔径和多点对焦;深度不变法是指波前编码、扩散编码和聚焦扫描。点扩散函数(PSF),也被称为成像系统的脉冲响应,在曝光过程中会导致不可避免的图像退化。虽然可以通过改善采集条件来防止外部模糊,如相机运动,但光学系统的固有特性,如透镜像差和衍射,也对图像质量有深刻的影响。在图像恢复的前提条件下,精确测量PSF可以对图像恢复得到非常显著的提升。
如今单像素成像技术被引入用于测量PSF的难点,例如,盲PSF估计技术和非盲PSF估计技术往往假设空间不变PSF,使用类点光源的低信噪比问题,以及基于激光光束的方法不适用于空间变化PSF的测量。因此,如何利用SPI准确测量空间变化PSF辅助大景深下的FPP系统进行准确的三维测量具有很高的研究价值。
发明内容
为了解决上述技术问题,本发明提供一种基于点扩散函数解算的大景深条纹投影三维测量方法,其具体技术方案如下:
一种基于点扩散函数解算的大景深条纹投影三维测量方法,包括以下步骤:
步骤一:设计编码条纹图片:通过投影仪对待测量物体投出基于傅里叶单像素成像(FSI)的编码条纹图片;
步骤二:将步骤一通过工业相机拍摄得到的经过物体调制后的编码条纹图片用来求得傅里叶系数切片;
步骤三:求得点扩散函数:将步骤二所得的傅里叶系数切片通过傅里叶逆变换得到PSF;
步骤四:采集待测物体条纹图像:通过三维测量系统采集待测物体的原始失焦图像;
步骤五:获取全聚焦图像:通过步骤三得到的空间变化PSF对步骤四中三维测量系统采集得到的失焦图像进行反卷积获取全聚焦图像;
步骤六:重建三维信息:通过步骤五得到的全聚焦图像通过相位恢复,相位展开后结合标定参数对相位重建出待测物体的三维信息。
进一步的,所述步骤一:对待测量物体投出基于傅里叶单像素成像(FSI)的条纹图用以下数学公式表示:
Figure DEST_PATH_IMAGE002
Figure DEST_PATH_IMAGE004
其中
Figure DEST_PATH_IMAGE006
表示像素坐标,
Figure DEST_PATH_IMAGE008
表示空间频率,
Figure DEST_PATH_IMAGE010
表示背景光强,
Figure DEST_PATH_IMAGE012
表示条纹图案的调制度,
Figure DEST_PATH_IMAGE014
表示初始相位。
进一步的,所述步骤一中,由于相机一个像素的可见光面积小于128×128像素,因此投影条纹图被设计为周期为128像素的周期性扩展条纹。
进一步的,所述步骤二中傅里叶系数的切片用以下的公式计算:
Figure DEST_PATH_IMAGE016
Figure DEST_PATH_IMAGE018
其中,
Figure DEST_PATH_IMAGE020
Figure DEST_PATH_IMAGE022
分别表示单像素探测器对垂直和水平二维正弦条纹反射光的响应,
Figure DEST_PATH_IMAGE024
是与单像素探测器的灵敏度和位置相关的系数。
进一步的,所述步骤三中PSF的推导过程可以由以下公式计算:
Figure DEST_PATH_IMAGE026
Figure DEST_PATH_IMAGE028
其中,
Figure DEST_PATH_IMAGE030
表示一维傅里叶逆变换。
进一步的,所述步骤四中三维测量系统包括投影仪、相机和计算机,即条纹投影轮廓术FPP,条纹投影轮廓术通过结合基于单像素测量点扩散函数(PSF)的方式以扩大相机的自由度,单像素编码条纹与FPP编码条纹都由同一台投影仪投出,
三维测量系统采集待测物体的原始条纹图片的具体步骤为:利用计算机设置固定间隔的条纹光栅,通过投影仪投射一组正弦条纹图像,经待测物体反射后经相机接收。
进一步的,所述步骤五中,三维测量系统中的相机的失焦用数学模型表示为聚焦条纹与高斯函数的卷积,二维的高斯函数由下式表示:
Figure DEST_PATH_IMAGE032
其表达式为标准差为
Figure DEST_PATH_IMAGE034
的二维正态分布,均值点为
Figure DEST_PATH_IMAGE036
所述卷积选用Lucy-Richardson反卷积方式,通过迭代的方式得到结果的,这种迭代的方式通常能够比直接求解的方式得到更好的结果,这是一种非线性的的方法,由下式表述:
Figure DEST_PATH_IMAGE038
其中,
Figure DEST_PATH_IMAGE040
为未模糊的清晰图像,
Figure DEST_PATH_IMAGE042
为模糊函数,
Figure DEST_PATH_IMAGE044
为拍到的失焦图像,
Figure DEST_PATH_IMAGE046
为迭代次数。
进一步的,所述步骤六中将步骤五得到的全聚焦图像代入到下式中,计算得到包裹相位:
Figure DEST_PATH_IMAGE048
式中,
Figure DEST_PATH_IMAGE050
为像素坐标,
Figure DEST_PATH_IMAGE052
为相移数,
Figure DEST_PATH_IMAGE054
为编码的相位值,
Figure DEST_PATH_IMAGE056
为相移步数;
基于格雷码的方式将包裹相位展开得到绝对相位用如下公式表示:
Figure DEST_PATH_IMAGE058
式中,
Figure 966438DEST_PATH_IMAGE046
为整数,被称为条纹级次,
Figure DEST_PATH_IMAGE060
为绝对相位,
Figure DEST_PATH_IMAGE062
为条纹频率;
将绝对相位与标定参数结合对相位重建出待测物体的三维信息。
本发明的工作原理是:
本发明基于傅里叶单像素成像的高信噪比特性,得到高信噪比的空间变化PSF,在二维上恢复了由于离焦而拍摄到的模糊图像,从而恢复被测量物体的三维信息。本发明方法通过标定大景深下空间变化的点扩散函数,反卷积恢复相机失焦拍到的模糊图像,实现了大景深下的三维重建。本发明方法能有效拓展传统FPP的景深范围,使景深提高到原来的2倍。实验结果表明,本发明方法能够实现高分辨率、高精度的三维形状测量,同时实时地提高了三维测量的景深。
本发明的有益效果是:
(1)本发明方法基于SPI的技术,因此,在相同的相机曝光时间下,可以实现比传统PSF测量方法更高的信噪比测量。
(2)与其他的光学三维测量系统的工作范围扩展方法相比,本发明方法不需要其他的硬件支持,更适合于FPP领域。
附图说明
图1是本发明方法中的流程示意图;
图2是本发明方法中的实施例与传统FPP成像三维重建示意图;
图中:(a)为原始模糊图像,(b)为传统FPP得到的三维效果图,(c)为本发明的三维效果图;
图3是本发明方法中的实施例位于40cm处的细节对比;
图中:(a)为传统FPP得到的三维效果图,(b)为本发明的三维效果图;
图4是本发明方法中的实施例位于75cm处的细节对比;
图中:(a)为传统FPP得到的三维效果图,(b)为本发明的三维效果图;
图5是本发明方法中的实施例位于120cm处的细节对比;
图中:(a)为传统FPP得到的三维效果图,(b)为本发明的三维效果图。
具体实施方式
现在结合附图对本发明作进一步详细的说明。
本发明的基于单像素测量点扩散函数的大景深下的条纹投影三维测量方法的实施例包括如下步骤:
步骤一:对待测量物体投出单像素编码条纹,投出的基于傅里叶单像素成像(FSI)的条纹图可以用以下数学公式表示:
Figure DEST_PATH_IMAGE064
Figure DEST_PATH_IMAGE066
其中
Figure DEST_PATH_IMAGE068
表示像素坐标,
Figure DEST_PATH_IMAGE070
表示空间频率,
Figure DEST_PATH_IMAGE072
表示背景光强,
Figure DEST_PATH_IMAGE074
表示条纹图案的调制度,
Figure DEST_PATH_IMAGE076
表示初始相位。
特别的,根据的实验,由于相机一个像素的可见光面积小于128×128像素,因此投影条纹被设计为周期为128像素的周期性扩展条纹,以此可以大大减少传统FSI所需图案数量。
步骤一中的编码条纹选择基于傅里叶单像素成像(SPI)方式的条纹,由于SPI所需条纹图数量与重建图像的分辨率成正比,因此如果图像分辨率降低,条纹图数量就会减少。待成像物体通常在重建图像中占据部分区域。如果仅对目标区域进行SPI,则在不降低图像质量的前提下,可以显著减少投影模式的数量和时间消耗。
步骤二:对拍到的图求得傅里叶系数切片。傅里叶系数的切片可以用以下的公式计算:
Figure DEST_PATH_IMAGE078
Figure DEST_PATH_IMAGE080
其中,
Figure DEST_PATH_IMAGE082
Figure DEST_PATH_IMAGE084
分别表示单像素探测器对垂直和水平二维正弦条纹反射光的响应,
Figure DEST_PATH_IMAGE086
是与单像素探测器的灵敏度和位置相关的系数。
空间变化的PSF作为物体和图像点之间的光传输系数。通过将单像素成像技术应用到相机成像平面的每个像素上,PSF是从得到的光传输系数中提取的,即步骤三将傅里叶系数的切片通过傅里叶逆变换得到的就是PSF一维投影。
步骤三:将步骤二所得的傅里叶系数的切片通过傅里叶逆变换得到PSF,PSF的推导过程可以由以下公式计算:
Figure DEST_PATH_IMAGE088
Figure DEST_PATH_IMAGE090
其中,
Figure DEST_PATH_IMAGE092
表示一维傅里叶逆变换。
步骤四:待测物体条纹图像采集:通过三维测量系统采集待测物体的原始条纹图像;三维测量系统包括投影仪、相机和计算机,即条纹投影轮廓术FPP,条纹投影轮廓术通过结合基于单像素测量点扩散函数(PSF)的方式以扩大相机的自由度。单像素编码条纹与FPP编码条纹都由同一台投影仪投出。三维测量系统采集待测物体的原始条纹图片的具体步骤为:利用计算机设置固定间隔的条纹光栅,通过投影仪投射一组正弦条纹图像,经待测物体反射后经相机接收。
对于求得的PSF的一维投影,可以通过高斯拟合得到标准差,选择用Matlab自带的拟合工具箱,通过拟合一维高斯方程的系数c1,即是高斯模糊核的标准差乘
Figure DEST_PATH_IMAGE094
,相机的PSF可以用二维的高斯模糊模型来表示。
步骤五:获取聚焦图像:通过步骤三得到的空间变化PSF对步骤四得到的失焦图像进行反卷积获取聚焦图像。通常,相机的失焦可以用数学模型表示为聚焦条纹与高斯函数的卷积。二维的高斯函数可以由下式表示:
Figure DEST_PATH_IMAGE096
其表达式为标准差为
Figure DEST_PATH_IMAGE098
的二维正态分布,均值点为
Figure DEST_PATH_IMAGE100
。本发明所用的Lucy-Richardson反卷积方式,是通过迭代的方式得到结果的。这种迭代的方式通常能够比直接求解的方式得到更好的结果,这是一种非线性的的方法,可以由下式表述:
Figure DEST_PATH_IMAGE102
其中,
Figure DEST_PATH_IMAGE104
为未模糊的清晰图像,
Figure DEST_PATH_IMAGE106
为模糊函数,
Figure DEST_PATH_IMAGE108
为拍到的失焦图像,
Figure DEST_PATH_IMAGE110
为迭代次数。
步骤五需要对不同景深下的待测物体结合空间变化的PSF进行反卷积获取聚焦图像即子聚焦图像,最后得到全聚焦图像,其中,选择Lucy-Richardson反卷积进行去模糊图像,并使用Matlab 2016b中内置的deconvlucy()函数进行图像后处理。
如图2所示,所选取的大的测量景深(400mm,1200mm)其中包含三个处于不同景深下的物体,对三个物体分别位于400mm,750mm,1200mm处,在步骤四中得到的空间变化的PSF应用于三个物体上分别对其进行重聚焦,重建三维点云信息。
步骤六:重建三维信息:通过步骤五得到的全聚焦图像通过相位恢复,相位展开后结合标定参数对相位重建出待测物体的三维信息;将步骤五得到的全聚焦图像代入到下式中:
Figure DEST_PATH_IMAGE112
式中,
Figure DEST_PATH_IMAGE114
为像素坐标,
Figure DEST_PATH_IMAGE116
为相移数,
Figure DEST_PATH_IMAGE118
为编码的相位值,
Figure DEST_PATH_IMAGE120
为相移步数。基于格雷码的方式将包裹相位展开得到绝对相位可以用如下公式表示:
Figure DEST_PATH_IMAGE122
式中,
Figure DEST_PATH_IMAGE124
为整数,被称为条纹级次,
Figure DEST_PATH_IMAGE126
为绝对相位,
Figure DEST_PATH_IMAGE128
为条纹频率。将绝对相位与标定参数结合对相位重建出待测物体的三维信息。
为了验证本发明的效果,选用了三个置于不同景深范围下的物体进行了实验,最终实验结果如图2,3,4,5所示,可以证明本发明提出的基于单像素测量点扩散函数的大景深下的条纹投影三维测量技术利用设备在固定的焦距下,通过单像素测量空间变化PSF实现图像的重聚焦可以有效的降低相机失焦带来的三维测量的误差,能够在较大的景深范围内实现高精度的三维测量。
以上述依据本发明的理想实施例为启示,通过上述的说明内容,相关工作人员完全可以在不偏离本项发明技术思想的范围内,进行多样的变更以及修改。本项发明的技术性范围并不局限于说明书上的内容,必须要根据权利要求范围来确定其技术性范围。

Claims (3)

1.基于点扩散函数解算的大景深条纹投影三维测量方法,其特征在于:包括以下步骤:
步骤一:设计编码条纹图片:通过投影仪对待测量物体投出基于傅里叶单像素成像(FSI)的编码条纹图片,对待测量物体投出基于傅里叶单像素成像(FSI)的条纹图用以下数学公式表示:
Figure QLYQS_1
Figure QLYQS_2
其中
Figure QLYQS_3
表示像素坐标,
Figure QLYQS_4
表示空间频率,
Figure QLYQS_5
表示背景光强,
Figure QLYQS_6
表示条纹图案的调制度,
Figure QLYQS_7
表示初始相位;
步骤二:将步骤一通过工业相机拍摄得到的经过物体调制后的编码条纹图片用来求得傅里叶系数切片,傅里叶系数的切片用以下的公式计算:
Figure QLYQS_8
Figure QLYQS_9
其中,
Figure QLYQS_10
Figure QLYQS_11
分别表示单像素探测器对垂直和水平二维正弦条纹反射光的响应,
Figure QLYQS_12
是与单像素探测器的灵敏度和位置相关的系数;
步骤三:求得点扩散函数:将步骤二所得的傅里叶系数切片通过傅里叶逆变换得到PSF,PSF的推导过程由以下公式计算:
Figure QLYQS_13
Figure QLYQS_14
其中,
Figure QLYQS_15
表示一维傅里叶逆变换;
步骤四:采集待测物体条纹图像:通过三维测量系统采集待测物体的原始失焦图像;
步骤五:获取全聚焦图像:通过步骤三得到的空间变化PSF对步骤四中三维测量系统采集得到的失焦图像进行反卷积获取全聚焦图像,三维测量系统中的相机的失焦用数学模型表示为聚焦条纹与高斯函数的卷积,二维的高斯函数由下式表示:
Figure QLYQS_16
其表达式为标准差为
Figure QLYQS_17
的二维正态分布,均值点为
Figure QLYQS_18
所述卷积选用Lucy-Richardson反卷积方式,通过迭代的方式得到结果的,这种迭代的方式通常能够比直接求解的方式得到更好的结果,这是一种非线性的方法,由下式表述:
Figure QLYQS_19
其中,
Figure QLYQS_20
为未模糊的清晰图像,
Figure QLYQS_21
为模糊函数,
Figure QLYQS_22
为拍到的失焦图像,
Figure QLYQS_23
为迭代次数;
步骤六:重建三维信息:通过步骤五得到的全聚焦图像通过相位恢复,相位展开后结合标定参数对相位重建出待测物体的三维信息,将步骤五得到的全聚焦图像代入到下式中,计算得到包裹相位:
Figure QLYQS_24
式中,
Figure QLYQS_25
为像素坐标,
Figure QLYQS_26
为相移数,
Figure QLYQS_27
为编码的相位值,
Figure QLYQS_28
为相移步数;
基于格雷码的方式将包裹相位展开得到绝对相位用如下公式表示:
Figure QLYQS_29
式中,
Figure QLYQS_30
为整数,被称为条纹级次,
Figure QLYQS_31
为绝对相位,
Figure QLYQS_32
为条纹频率;
将绝对相位与标定参数结合对相位重建出待测物体的三维信息。
2.根据权利要求1所述的基于点扩散函数解算的大景深条纹投影三维测量方法,其特征在于:所述步骤一中,由于相机一个像素的可见光面积小于128×128像素,因此投影条纹图被设计为周期为128像素的周期性扩展条纹。
3.根据权利要求1所述的基于点扩散函数解算的大景深条纹投影三维测量方法,其特征在于:所述步骤四中三维测量系统包括投影仪、相机和计算机,即条纹投影轮廓术FPP,条纹投影轮廓术通过结合基于单像素测量点扩散函数(PSF)的方式以扩大相机的自由度,单像素编码条纹与FPP编码条纹都由同一台投影仪投出,
三维测量系统采集待测物体的原始条纹图片的具体步骤为:利用计算机设置固定间隔的条纹光栅,通过投影仪投射一组正弦条纹图像,经待测物体反射后经相机接收。
CN202211487011.8A 2022-11-25 2022-11-25 基于点扩散函数解算的大景深条纹投影三维测量方法 Active CN115546285B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211487011.8A CN115546285B (zh) 2022-11-25 2022-11-25 基于点扩散函数解算的大景深条纹投影三维测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211487011.8A CN115546285B (zh) 2022-11-25 2022-11-25 基于点扩散函数解算的大景深条纹投影三维测量方法

Publications (2)

Publication Number Publication Date
CN115546285A CN115546285A (zh) 2022-12-30
CN115546285B true CN115546285B (zh) 2023-06-02

Family

ID=84720416

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211487011.8A Active CN115546285B (zh) 2022-11-25 2022-11-25 基于点扩散函数解算的大景深条纹投影三维测量方法

Country Status (1)

Country Link
CN (1) CN115546285B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116912334B (zh) * 2023-09-12 2023-11-28 武汉工程大学 基于光栅条纹投影的相位映射高精度投影仪标定方法
CN118089594B (zh) * 2024-04-28 2024-07-05 南京理工大学 基于散射噪声抑制的水下偏振条纹投影三维测量方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060204861A1 (en) * 2005-03-14 2006-09-14 Eyal Ben-Eliezer Optical mask for all-optical extended depth-of-field for imaging systems under incoherent illumination
EP1926047A1 (en) * 2006-11-21 2008-05-28 STMicroelectronics (Research & Development) Limited Artefact Removal from Phase Encoded Images
US8633969B2 (en) * 2011-02-09 2014-01-21 Omnivision Technologies, Inc. Apparatus and method for three-dimensional image capture with extended depth of field
JP2016024052A (ja) * 2014-07-18 2016-02-08 国立大学法人 鹿児島大学 3次元計測システム、3次元計測方法及びプログラム
CN108168464B (zh) * 2018-02-09 2019-12-13 东南大学 针对条纹投影三维测量系统离焦现象的相位误差校正方法
CN108592824B (zh) * 2018-07-16 2020-06-30 清华大学 一种基于景深反馈的变频条纹投影结构光测量方法
CN113160393B (zh) * 2021-05-14 2023-08-04 深圳大学 基于大景深的高精度三维重建方法、装置及其相关组件

Also Published As

Publication number Publication date
CN115546285A (zh) 2022-12-30

Similar Documents

Publication Publication Date Title
CN115546285B (zh) 基于点扩散函数解算的大景深条纹投影三维测量方法
CN111288925B (zh) 一种基于数字对焦结构照明光场的三维重建方法和装置
US8040604B2 (en) Imaging system and method for providing extended depth of focus, range extraction and super resolved imaging
US8582820B2 (en) Coded aperture camera with adaptive image processing
CN104061879A (zh) 一种连续扫描的结构光三维面形垂直测量方法
US8773550B2 (en) Range measurement using multiple coded apertures
WO2010016625A1 (ja) 画像撮影装置およびその距離演算方法と合焦画像取得方法
JP2008191661A (ja) シーンの4dライトフィールドを取得する装置及び方法
CN109579738B (zh) 一种二值条纹离焦投影系统低通滤波特性测量方法
WO2009108050A1 (en) Image reconstructor
JP2017208641A (ja) 圧縮センシングを用いた撮像装置、撮像方法および撮像プログラム
CN109631796A (zh) 一种基于二维s变换取脊方法的三维面形垂直测量方法
Liu et al. Large depth-of-field 3D measurement with a microscopic structured-light system
Matsui et al. Half-sweep imaging for depth from defocus
CN107220945B (zh) 多重退化的极模糊图像的复原方法
CN113160393B (zh) 基于大景深的高精度三维重建方法、装置及其相关组件
CN109443250B (zh) 一种基于s变换的结构光三维面形垂直测量方法
Llull et al. Compressive extended depth of field using image space coding
JP2017208642A (ja) 圧縮センシングを用いた撮像装置、撮像方法および撮像プログラム
Ghita et al. A video-rate range sensor based on depth from defocus
Li et al. Modulation transfer function measurements using a learning approach from multiple diffractive grids for optical cameras
CN115290004B (zh) 一种基于压缩感知与hsi的水下并行单像素成像方法
Liu et al. Investigation of phase pattern modulation for digital fringe projection profilometry
JP2020506390A (ja) 電磁場の波頭の断層撮影分布を取得する方法及び光学システム
Honnungar et al. Focal-sweep for large aperture time-of-flight cameras

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant