CN112802084B - 基于深度学习的三维形貌测量方法、系统和存储介质 - Google Patents

基于深度学习的三维形貌测量方法、系统和存储介质 Download PDF

Info

Publication number
CN112802084B
CN112802084B CN202110041097.0A CN202110041097A CN112802084B CN 112802084 B CN112802084 B CN 112802084B CN 202110041097 A CN202110041097 A CN 202110041097A CN 112802084 B CN112802084 B CN 112802084B
Authority
CN
China
Prior art keywords
phase
images
wrapping
neural network
deep learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110041097.0A
Other languages
English (en)
Other versions
CN112802084A (zh
Inventor
蔡长青
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou University
Original Assignee
Guangzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou University filed Critical Guangzhou University
Priority to CN202110041097.0A priority Critical patent/CN112802084B/zh
Publication of CN112802084A publication Critical patent/CN112802084A/zh
Application granted granted Critical
Publication of CN112802084B publication Critical patent/CN112802084B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本申请公开了一种基于深度学习的三维形貌测量方法、系统和存储介质,所述方法包括在待测物体上投影正弦条纹,采用十二步相移法采集若干第一条纹图像和第二条纹图像;随机选取第一条纹图像中的三个图像作为第一输入图像;将第一输入图像输入到卷积神经网络中,获取第一包裹相位;随机选取第二条纹图像中的三个图像作为第二输入图像;将第二输入图像输入到卷积神经网络中,获取第二包裹相位;计算第一包裹相位和第二包裹相位的差频,获取合成包裹相位;对合成包裹相位进行解包裹,获取连续相位;根据连续相位获取待测物体的三维形貌特征。相较于现有技术,本申请能够实现三维形貌的高动态范围成像。本申请可广泛应用于三维测量技术领域中。

Description

基于深度学习的三维形貌测量方法、系统和存储介质
技术领域
本申请涉及三维测量技术领域,尤其涉及一种基于深度学习的三维形貌测量方法、系统和存储介质。
背景技术
随着技术的发展,三维信息获取和处理变得越来越流行。条纹投影轮廓仪作为三维测量技术,已广泛应用于制造、教育和娱乐业等许多领域。典型的条纹投影轮廓仪系统由一个投影设备和多个摄像机组成。投影设备用于将编码的条纹图案投影到待测物体上。由于相机的动态范围有限,在实际测量中,当待测物体所在场景包含高反射率物体时,不可避免地会发生图像饱和。如果直接降低投影的光强度,将导致待测物体所在场景中反射率较低的物体的信噪比较低。为了解决这个问题,研究者们提出了高动态范围成像方法。高动态范围成像方法可以分为两类:基于硬件的方法和基于算法的方法。
基于硬件的方法主要通过调整系统硬件参数来解决高动态范围成像问题。在这些方法中,多重曝光方法是使用最广泛的方法。在照片中,长时间曝光拍摄的图像会在昏暗的照明区域中显示细节,而短时间曝光拍摄的图像会在高照明度区域提供细节。多重曝光方法通过将这些具有不同细节的图像合并到单个高动态范围图像中来改善动态范围。类似地,调整投射的光强度具有相同的效果,可以将其视为多重曝光的另一种形式。多重曝光方法具有动态范围宽,操作简单的优点。但是对于任意测量对象,由于缺乏其表面反射率信息,很难迅速找到合适的曝光时间。为了获得高质量的三维测量结果,必须使用尽可能多的曝光时间或投影光强度,这会导致测量效率低下的问题。另一方面,在收集足够数量的具有不同曝光量的图像之前,被测对象需要保持静止,这意味着多重曝光方法仅适用于静态测量。为了优化多重曝光方法,近年来已经提出了许多改进的方法,这些方法可以避免实验盲目性,使测量过程更有效。但是,它们的测量速度对于动态测量仍然太慢。为了提高测量速度,有学者提出了一种基于数字光处理技术的优化多重曝光方法。该方法具有良好的实时性能,但是其动态范围的改进受到限制。
与基于硬件的方法不同,基于算法的方法在测量过程中不调整硬件参数,因此它们的测量速度比大多数基于硬件的方法要快得多。它们旨在以数学方式消除由高动态范围成像引起的测量误差,可以将其视为一种后处理补偿方法。在条纹投影轮廓仪的应用中,由于正弦条纹图案对噪声的鲁棒性和实现高分辨率的能力,因此正弦条纹图案成为最常用的图案。对于正弦条纹图案,大多数基于算法的方法都旨在消除由饱和引起的相位误差。他们的核心思想是增加具有不同光强度的条纹图案的数量,以确保在同一像素上至少具有三个不饱和强度值。一些简单的操作可以实现此效果,例如,增加相移步骤的数量或插入倒置条纹图案。可以看出,它们的动态范围的改善是以增加投影条纹图案为代价的。投影太多图案会带来运动误差。因此,基于算法的方法也无法解决改善动态范围和确保实时性能之间的难题。
发明内容
有鉴于此,本申请的目的是提供一种基于深度学习的三维形貌测量方法、系统和存储介质,以实现三维形貌高动态范围高速成像。
本申请所采用的第一技术方案是:
一种基于深度学习的三维形貌测量方法,包括:
在待测物体上投影第一频率的正弦条纹,采用十二步相移法采集所述待测物体的若干第一条纹图像;
随机选取所述第一条纹图像中的三个图像作为第一输入图像;
将所述第一输入图像输入到卷积神经网络中,获取第一包裹相位;
在所述待测物体上投影第二频率的正弦条纹,采用十二步相移法采集所述待测物体的若干第二条纹图像;
随机选取所述第二条纹图像中的三个图像作为第二输入图像;
将所述第二输入图像输入到卷积神经网络中,获取第二包裹相位;
计算所述第一包裹相位和所述第二包裹相位的差频,获取合成包裹相位;
对所述合成包裹相位进行解包裹,获取连续相位;
根据所述连续相位获取所述待测物体的三维形貌特征。
进一步,所述投影的光强度大于三步相移的光强度上限,所述投影的光强度小于十二步相移的光强度上限。
进一步,所述卷积神经网络的训练数据包括训练输入图像、包裹相位分子标签和包裹相位分母标签,所述训练输入图像为训练条纹图像中随机选取的三个图像,所述训练条纹图像采用十二步相移法进行采集,所述包裹相位分子标签和包裹相位分母标签根据所述训练条纹图像计算得到。
进一步,所述卷积神经网络包括第一卷积层、池化层、上采样块、第二卷积层和第三卷积层,所述第一卷积层将训练输入图像抽象为多尺度数据,所述采样块将所述多尺度数据恢复为原始尺寸。
进一步,所述池化层后设置有残差块,所述残差块用于加速所述卷积神经网络收敛。
进一步,所述卷积神经网络采用自适应矩估计算法最小化损失函数。
进一步,所述卷积神经网络的测试步骤如下:
采用十二步相移法采集若干测试条纹图像;
根据所述测试条纹图像计算测试包裹相位标签;
随机选取所述测试条纹图像中的三个图像作为测试输入图像;
将所述测试输入图像输入到所述卷积神经网络中,获取测试包裹相位输出;
计算所述测试包裹相位标签和所述测试包裹相位输出的相位误差;
确定所述相位误差大于阈值,继续训练所述卷积神经网络。
本申请所采用的第二技术方案是:
一种基于深度学习的三维形貌测量系统,包括:
投影采集模块,用于在待测物体上投影第一频率的正弦条纹,采用十二步相移法采集所述待测物体的若干第一条纹图像;在所述待测物体上投影第二频率的正弦条纹,采用十二步相移法采集所述待测物体的若干第二条纹图像;
输入选取模块,用于随机选取所述第一条纹图像中的三个图像作为第一输入图像;随机选取所述第二条纹图像中的三个图像作为第二输入图像;
包裹相位模块,用于将所述第一输入图像输入到卷积神经网络中,获取第一包裹相位;将所述第二输入图像输入到卷积神经网络中,获取第二包裹相位;
合成包裹模块,用于计算所述第一包裹相位和所述第二包裹相位的差频,获取合成包裹相位;
包裹解相模块,用于对所述合成包裹相位进行解包裹,获取连续相位;
形貌测量模块,用于根据所述连续相位获取所述待测物体的三维形貌特征。
本申请所采用的第三技术方案是:
一种基于深度学习的三维形貌测量系统,包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现所述的基于深度学习的三维形貌测量方法。
本申请所采用的第四技术方案是:
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现所述的基于深度学习的三维形貌测量方法。
本申请实施例采用十二步多频相移法采集待测物体的条纹图像,通过十二步相移提高了三维形貌测量的动态范围,同时从十二步多频相移的图像中的每个频率选取三个图像用于三维形貌测量,由于仅使用三个条纹图像,提高了三维形貌测量的测量速度。相较于现有技术,本申请能够实现三维形貌的高动态范围高速成像。
附图说明
图1为本申请实施例基于深度学习的三维形貌测量方法的流程图;
图2为本申请实施例基于深度学习的三维形貌测量方法的卷积神经网络的结构框图。
具体实施方式
以下将结合实施例和附图对本申请的构思、具体结构及产生的技术效果进行清楚、完整的描述,以充分地理解本申请的目的、方案和效果。
下面结合附图和具体实施例对本申请做进一步的详细说明。对于以下实施例中的步骤编号,其仅为了便于阐述说明而设置,对步骤之间的顺序不做任何限定,实施例中的各步骤的执行顺序均可根据本领域技术人员的理解来进行适应性调整。此外,对于以下实施例中所述的若干个,其表示为至少一个。
应当理解,尽管在本公开可能采用术语第一、第二、第三等来描述各种元件,但这些元件不应限于这些术语。这些术语仅用来将同一类型的元件彼此区分开。例如,在不脱离本公开范围的情况下,第一元件也可以被称为第二元件,类似地,第二元件也可以被称为第一元件。本文所提供的任何以及所有实例或示例性语言(“例如”、“如”等)的使用仅意图更好地说明本申请的实施例,并且除非另外要求,否则不会对本申请的范围施加限制。
对于许多基于条纹投影轮廓仪的三维测量技术,由于相机的动态范围有限,因此测量表面反射率变化范围较大的物体始终是一个非常棘手的问题。针对静态场景开发了许多高动态范围的三维测量方法,而对于动态对象而言却不太实用。本申请解决了高动态范围图像场景中相位信息丢失的问题,以便能够通过深度学习从饱和或黑暗图像进行三维重建。通过使用专门设计的卷积神经网络,经过适当的训练,可以在低信噪比和饱和的情况下准确地提取相位信息。本申请在静态和高动态范围图像对象的三维重建中均取得了成功,可以将三步相移的动态范围提高4.8倍,而在测量过程中无需任何其他投影图像或硬件调整,最终三维测量速度在离线状态下约为13.89Hz。
本申请将深度学习引入高动态范围的三维形貌测量中,以解决高速与高动态范围之间难以兼顾的问题。深度学习源自机器学习,其发展非常迅速,在许多领域都显示出了广阔的应用前景。对于深度学习,如果提供足够数量的训练数据,则优化的神经网络结构可以有效消除高动态范围引起的相位误差。本申请采用立体相位解包裹技术用于计算解包裹的相位,提高测量速度。
如图1所示,本申请实施例提供了一种基于深度学习的三维形貌测量方法,包括:
S110、在待测物体上投影第一频率的正弦条纹,采用十二步相移法采集所述待测物体的若干第一条纹图像;
S120、随机选取所述第一条纹图像中的三个图像作为第一输入图像;
S130、将所述第一输入图像输入到卷积神经网络中,获取第一包裹相位;
S140、在所述待测物体上投影第二频率的正弦条纹,采用十二步相移法采集所述待测物体的若干第二条纹图像;
S150、随机选取所述第二条纹图像中的三个图像作为第二输入图像;
S160、将所述第二输入图像输入到卷积神经网络中,获取第二包裹相位;
S170、计算所述第一包裹相位和所述第二包裹相位的差频,获取合成包裹相位;
S180、对所述合成包裹相位进行解包裹,获取连续相位;
S190、根据所述连续相位获取所述待测物体的三维形貌特征。
本申请在进行三维形貌测量的过程中,采用相位测量轮廓术进行包裹相位的测量。首先需要在待测物体上进行投影,在待测物体上投影第一频率的正弦条纹,采用十二步相移法采集十二张待测物体的第一条纹图像;在待测物体投影第二频率的正弦条纹,采用十二步相移法采集十二张待测物体的第二条纹图像。
正弦条纹图案可以在数学上描述如下:
Figure BDA0002895395550000051
其中A是平均强度,B是强度调制值,B是相移步数,k是相移指数,φ是要测量的相位。相机拍摄的相应图像可以表示为:
Figure BDA0002895395550000052
其中α是相机灵敏度,t是相机曝光时间,r是待测物体的表面反射率,In是随机噪声。假设α和t在测量过程中保持恒定,则光强度值
Figure BDA0002895395550000053
仅取决于r。对于不同的r值,高动态范围问题通常有两种情况:第一种情况是当r的值较小时,其相应区域的图像亮度较低,这使得相位信息容易受到噪声的影响;第二种情况是当r的值较大时,相应的区域易于饱和,这导致相位信息丢失。
当r的值较小时,每个像素的光强度值在相机的动态范围内,因此可以直接使用标准的N步相移算法来计算:
Figure BDA0002895395550000061
然后可以通过以下等式提取φ:
Figure BDA0002895395550000062
随机噪声In被视为加性高斯噪声。因此,In呈正态分布,且平均值为零。在此基础上,可以计算相位误差σ2的方差:
Figure BDA0002895395550000063
σn是In的标准偏差,可以增加相移步长N来减少低反射率引起的相位误差。
当r的值较大时,捕获的图像饱和。由饱和引起的相位信息损失成为相位误差的主要来源。假设摄像机的动态范围是无限的,则φ的精确值可以计算为:
Figure BDA0002895395550000064
但是,现有的摄像机的动态范围并不是无限的,对于8位相机,当出现饱和现象时,相机拍摄的相应图像可以表示为:
Figure BDA0002895395550000065
因此,相位的计算公式如下:
Figure BDA0002895395550000066
相移算法的本质是离散傅里叶变换,根据离散傅里叶变换的性质,当不满足整数周期采样的条件时,将引入相位误差。由于强度饱和度也可以被视为一种特殊的非线性误差,因此仍然可以通过增加相移步数来减小饱和度误差。
在这两种情况下,增加相移步数是减少相位误差的非常有效的方法。为了更好地说明其有效性,使用了三步相移和十二步相移来模拟具有不同反射率的相位误差。使用分辨率为1000×500的8位摄像机,对于三步相移,图像可以表示为:
Figure BDA0002895395550000071
对于十二步相移,图像可以表示为:
Figure BDA0002895395550000072
其中(x,y)是摄像机的像素坐标,Isn是平均值为0、方差为1的加性高斯噪声。由于可接受的平均绝对误差在0.04弧度之内。三步相移和十二步相移的相应可测量反射率范围分别约为0.6-1.0和0.3-3.0。使用最大可测量反射率除以及最小可测量反射率的商来表示N步相移的动态范围:
Figure BDA0002895395550000073
Figure BDA0002895395550000074
由此可知,十二步相移的动态范围DR12是三步相移的动态范围DR3的6倍。但是,十二步相移的测量速度比三步相移的速度慢四倍。可以看出,传统的相移方法不能同时满足高速和高动态范围的要求。
采用十二步相移法获取得到第一条纹图像和第二条纹图像之后,从第一条纹图像中随机选取三个图像作为第一输入图像,从第二条纹图像中随机选取三个图像作为第二输入图像。将第一输入图像输入到预先训练好的卷积神经网络中,获取第一包裹相位;将第二输入图像输入到预先训练好的卷积神经网络中,获取第二包裹相位。
为了解决高速和高动态范围兼容的问题,可以采用卷积神经网络对条纹图像进行处理,卷积神经网络由一个输入层、一个输出层以及多个隐藏层组成。卷积神经网络的结构如图2所示,深度学习过程分为训练和测试两个阶段。
在训练阶段,需要收集大量的训练数据来训练卷积神经网络。对于每个待测对象,将十二步相移模式投影到该对象上。投影光强度设计为大于三步相移的测量上限,而小于十二步相移的测量上限,相机同时捕获反射的条纹图案。十二个原始图像标记为
Figure BDA0002895395550000075
卷积神经网络的训练输入图像是从十二个训练条纹图像中选择的三个图像,卷积神经网络的标签包括包裹相位分子标签Sgt和包裹相位分母标签Cgt,其也被称为基本事实,其计算公式如下:
Figure BDA0002895395550000081
Figure BDA0002895395550000082
将训练数据输入到卷积神经网络中,经过第一卷积层后,图像被抽象为大小为w×h×c的特征图。对于卷积层,通道数取决于卷积过滤器的数目,使用的过滤器越多,网络估算值越准确。但是使用更多的过滤器意味着需要更多的训练时间。为了平衡网络性能和效率,将过滤器的数量设置为50。经过第一卷积层的卷积后,第j个特征图中和第i个卷积层中的像素(x,y)的值可以表示为:
Figure BDA0002895395550000083
其中bij是第j个特征图的偏置项,n是第(i-1)层中的特征图的集合,
Figure BDA0002895395550000084
是滤波器位置(p,q)上的值,P和Q分别是过滤器的高度和宽度。在本实施例中,每个滤波器的大小为3×3,卷积跨度为1。接下来的合并层通过执行非线性下采样来简化第一卷积层的输出。第一卷积层的每个输出数据在四个不同的路径中以×1,×2,×4和×8下采样。因此,然后将其大小转换为w×h×50,w2×h2×50,w4×h4×50和w8×h8×50,这些路径旨在感知更多的表面细节。池化层的输出之后是四个残差块,它们可以加快训练阶段的收敛速度,从而提高训练效率。在残差块之后有上采样块,用于将多尺度数据返回其原始尺寸。经过第二个卷积层后,这四个数据流路径的输出数据被连接块连接成一个张量为w×h×200的张量。它输入到第三卷积层。第三卷积层的输出产生两个通道,分别表示为S和C。S和C即包裹相位的分子和包裹相位的分母,因此卷积神经网络计算的包裹相位可以表示为:
Figure BDA0002895395550000085
S和C不能直接用于相位计算。其准确性应通过损失函数进行验证。损失函数定义为S和C相对于Sgt和Cgt的均方误差为:
Figure BDA0002895395550000086
其中,θ是参数空间,其中包括权重和偏差等。在训练中,Loss(θ)可被视为反馈参数。基于Loss(θ),自适应矩估计可以调整θ以最小化损耗函数。训练阶段将继续进行,直到获得最小的Loss(θ)。
在训练阶段,网络不会看到测试对象。它们的实际包裹相位φgt可以计算为:
Figure BDA0002895395550000091
与训练数据不同,每个测试数据仅包含三个图像,这意味着其S和C由网络计算得出,没有标签。对于测试数据,可以使用φCNN和φgt来计算相位误差。如果相位误差在可接受的范围内,则认为网络可用于实际测量。否则,需要调整网络参数并返回到训练阶段。
计算得到第一包裹相位和第二包裹相位之后,由于第一包裹相位和第二包裹相位为不同频率下的求得的包裹相位主值,因此可以利用第一包裹相位和第二包裹相位之间的数学关系在整个测量场景中展开,求得绝对相位。在本实施例中,首先计算第一包裹相位和第二包裹相位之间的差频,求得合成包裹相位,随后对合成包裹相位进行解包裹,得到连续相位,根据连续相位获取待测物体的三维形貌特征。
由于包裹相位具有2π相位不连续,因此第一包裹相位和第二包裹相位不能直接用于三维重建。为了获得连续的相位分布,必须进行相位解包裹。经过多年的探索和发展,有很多成熟的相位解包裹方法,但是并非所有方法都适合进行本方案的相位解包裹。这是因为本方案的网络的相位精度会随边缘频率f的变化而变化。如果条纹垂直于投影仪的水平轴,则f可以表示为:
Figure BDA0002895395550000092
其中R是投影仪的水平分辨率,λ是正弦条纹图案的波长。在实际测量中,网络更适用于高频条纹图案。下表显示了一些测量结果,此处的频率不是10的整数倍,这是因为投影仪的水平分辨率为912像素,并且这些频率可以使波长的值成为整数。
f/N 1/3 48/3 57/3 76/3
MSE 0.9230 0.0196 0.0149 0.0135
其中,MSE为均方误差。造成这种现象的主要原因是网络的相位精度取决于Sgt和Cgt。Sgt和Cgt是用十二步相移算法计算的。对于低频,特别是基频f=1时,十二步不足以消除饱和误差,这不可避免地影响了网络的输出。对于高频,由于投影机分辨率的限制,过高的频率f>90会降低对比度和正弦特性。另一方面,过高的频率也会由于相机的点扩展功能而增加饱和的影响。经过实验发现适用的频率范围约为60-90。
在一些实施例中,立体相位展开用于处理相位展开。使用立体相位展开的典型条纹投影轮廓仪系统由两个摄像头和一个投影仪组成。根据两个摄像机之间的几何关系,立体相位展开可以在不借助基频条纹图案的情况下计算展开相位。此外,立体相位展开的另一个优点是可以通过深度约束来提高其鲁棒性。根据被测物体的运动状态和条纹投影轮廓仪系统参数,可以大致估计出测量范围。通过将测量范围设置在最小和最大深度边界之间,可以删除一些候选对象以减少计算量。
还可以结合多波长时间相位展开来处理相位展开的问题。首先选择两个频率,例如57和76,分别标记为f1和f2。并且它们对应条纹图像的波长是:
Figure BDA0002895395550000101
Figure BDA0002895395550000102
可以将第一包裹相位和第二包裹相位进行运算获取合成包裹相位。根据多波长时间相位展开,合成图案的波长λsy、频率fsy和相位φsy可以计算为:
Figure BDA0002895395550000103
Figure BDA0002895395550000104
φsy(x,y)=[φ1(x,y)-φ2(x,y)]mod(2π)
其中,φ1和φ2是分别对应于f1和f2的包裹相位,mod是模运算。连续相位φfinal可以在合成模式的帮助下计算如下:
Figure BDA0002895395550000105
其中Round[X]将X的每个元素四舍五入到最接近的整数。对于φfinal,其频率等于fsy,该频率足够低,可以在较大的测量范围内避免相位模糊,同时保持较高的相位精度。结合立体相位展开,可以获得高精度的展开相位,然后可以通过从校准参数得出的参数矩阵来检索3D坐标。
本申请还提供了一种基于深度学习的三维形貌测量系统,包括:
投影采集模块,用于在待测物体上投影第一频率的正弦条纹,采用十二步相移法采集所述待测物体的若干第一条纹图像;在所述待测物体上投影第二频率的正弦条纹,采用十二步相移法采集所述待测物体的若干第二条纹图像;
输入选取模块,用于随机选取所述第一条纹图像中的三个图像作为第一输入图像;随机选取所述第二条纹图像中的三个图像作为第二输入图像;
包裹相位模块,用于将所述第一输入图像输入到卷积神经网络中,获取第一包裹相位;将所述第二输入图像输入到卷积神经网络中,获取第二包裹相位;
合成包裹模块,用于计算所述第一包裹相位和所述第二包裹相位的差频,获取合成包裹相位;
包裹解相模块,用于对所述合成包裹相位进行解包裹,获取连续相位;
形貌测量模块,用于根据所述连续相位获取所述待测物体的三维形貌特征。
上述方法实施例中的内容均适用于本系统实施例中,本系统实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法实施例所达到的有益效果也相同。
本申请还提供了一种基于深度学习的三维形貌测量系统,包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现所述的基于深度学习的三维形貌测量方法。
上述方法实施例中的内容均适用于本系统实施例中,本系统实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法实施例所达到的有益效果也相同。
此外,本申请实施例还提供了一种存储介质,其中存储有处理器可执行的指令,所述处理器可执行的指令在由处理器执行时用于执行上述方法实施例中任一个技术方案所述的一种交互信息处理方法步骤。对于所述存储介质,其可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。可见,上述方法实施例中的内容均适用于本存储介质实施例中,本存储介质实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法实施例所达到的有益效果也相同。
应当认识到,本申请的实施例系统中所包含的层、模块、单元和/或平台等可以由计算机硬件、硬件和软件的组合、或者通过存储在非暂时性计算机可读存储器中的计算机指令来实现或实施。所述方法可以使用标准编程技术-包括配置有计算机程序的非暂时性计算机可读存储介质在计算机程序中实现,其中如此配置的存储介质使得计算机以特定和预定义的方式操作——根据在具体实施例中描述的方法和附图。每个程序可以以高级过程或面向对象的编程语言来实现以与计算机系统通信。然而,若需要,该程序可以以汇编或机器语言实现。在任何情况下,该语言可以是编译或解释的语言。此外,为此目的该程序能够在编程的专用集成电路上运行。
此外,本申请实施例系统中所包含的层、模块、单元和/或平台所对应执行的数据处理流程,其可按任何合适的顺序来执行,除非本文另外指示或以其他方式明显地与上下文矛盾。本申请实施例系统中所包含的层、模块、单元和/或平台所对应执行的数据处理流程可在配置有可执行指令的一个或多个计算机系统的控制下执行,并且可作为共同地在一个或多个处理器上执行的代码(例如,可执行指令、一个或多个计算机程序或一个或多个应用)、由硬件或其组合来实现。所述计算机程序包括可由一个或多个处理器执行的多个指令。
进一步,所述系统可以在可操作地连接至合适的任何类型的计算平台中实现,包括但不限于个人电脑、迷你计算机、主框架、工作站、网络或分布式计算环境、单独的或集成的计算机平台、或者与带电粒子工具或其它成像装置通信等等。本申请系统中所包含的层、模块、单元和/或平台所对应执行的数据处理流程可以以存储在非暂时性存储介质或设备上的机器可读代码来实现,无论是可移动的还是集成至计算平台,如硬盘、光学读取和/或写入存储介质、RAM、ROM等,使得其可由可编程计算机读取,当存储介质或设备由计算机读取时可用于配置和操作计算机以执行在此所描述的过程。此外,机器可读代码,或其部分可以通过有线或无线网络传输。当此类媒体包括结合微处理器或其他数据处理器实现上文所述步骤的指令或程序时,本文所述的发明包括这些和其他不同类型的非暂时性计算机可读存储介质。当根据本申请所述的方法和技术编程时,本申请还包括计算机本身。
以上所述,只是本申请的较佳实施例而已,本申请并不局限于上述实施方式,只要其以相同的手段达到本申请的技术效果,凡在本申请的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本申请保护的范围之内。在本申请的保护范围内其技术方案和/或实施方式可以有各种不同的修改和变化。

Claims (10)

1.一种基于深度学习的三维形貌测量方法,其特征在于,包括:
在待测物体上投影第一频率的正弦条纹,采用十二步相移法采集所述待测物体的若干第一条纹图像;
随机选取所述第一条纹图像中的三个图像作为第一输入图像;
将所述第一输入图像输入到卷积神经网络中,获取第一包裹相位;
在所述待测物体上投影第二频率的正弦条纹,采用十二步相移法采集所述待测物体的若干第二条纹图像;
随机选取所述第二条纹图像中的三个图像作为第二输入图像;
将所述第二输入图像输入到卷积神经网络中,获取第二包裹相位;
计算所述第一包裹相位和所述第二包裹相位的差频,获取合成包裹相位;
对所述合成包裹相位进行解包裹,获取连续相位;
根据所述连续相位获取所述待测物体的三维形貌特征。
2.根据权利要求1所述的一种基于深度学习的三维形貌测量方法,其特征在于,所述投影的光强度大于三步相移的光强度上限,所述投影的光强度小于十二步相移的光强度上限。
3.根据权利要求1所述的一种基于深度学习的三维形貌测量方法,其特征在于,所述卷积神经网络的训练数据包括训练输入图像、包裹相位分子标签和包裹相位分母标签,所述训练输入图像为训练条纹图像中随机选取的三个图像,所述训练条纹图像采用十二步相移法进行采集,所述包裹相位分子标签和包裹相位分母标签根据所述训练条纹图像计算得到。
4.根据权利要求1所述的一种基于深度学习的三维形貌测量方法,其特征在于,所述卷积神经网络包括第一卷积层、池化层、上采样块、第二卷积层和第三卷积层,所述第一卷积层将训练输入图像抽象为多尺度数据,所述采样块将所述多尺度数据恢复为原始尺寸。
5.根据权利要求4所述的一种基于深度学习的三维形貌测量方法,其特征在于,所述池化层后设置有残差块,所述残差块用于加速所述卷积神经网络收敛。
6.根据权利要求1所述的一种基于深度学习的三维形貌测量方法,其特征在于,所述卷积神经网络采用自适应矩估计算法最小化损失函数。
7.根据权利要求1所述的一种基于深度学习的三维形貌测量方法,其特征在于,所述卷积神经网络的测试步骤如下:
采用十二步相移法采集若干测试条纹图像;
根据所述测试条纹图像计算测试包裹相位标签;
随机选取所述测试条纹图像中的三个图像作为测试输入图像;
将所述测试输入图像输入到所述卷积神经网络中,获取测试包裹相位输出;
计算所述测试包裹相位标签和所述测试包裹相位输出的相位误差;
确定所述相位误差大于阈值,继续训练所述卷积神经网络。
8.一种基于深度学习的三维形貌测量系统,其特征在于,包括:
投影采集模块,用于在待测物体上投影第一频率的正弦条纹,采用十二步相移法采集所述待测物体的若干第一条纹图像;在所述待测物体上投影第二频率的正弦条纹,采用十二步相移法采集所述待测物体的若干第二条纹图像;
输入选取模块,用于随机选取所述第一条纹图像中的三个图像作为第一输入图像;随机选取所述第二条纹图像中的三个图像作为第二输入图像;
包裹相位模块,用于将所述第一输入图像输入到卷积神经网络中,获取第一包裹相位;将所述第二输入图像输入到卷积神经网络中,获取第二包裹相位;
合成包裹模块,用于计算所述第一包裹相位和所述第二包裹相位的差频,获取合成包裹相位;
包裹解相模块,用于对所述合成包裹相位进行解包裹,获取连续相位;
形貌测量模块,用于根据所述连续相位获取所述待测物体的三维形貌特征。
9.一种基于深度学习的三维形貌测量系统,其特征在于,包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如权利要求1-7任一项所述的基于深度学习的三维形貌测量方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-7任一项所述的基于深度学习的三维形貌测量方法。
CN202110041097.0A 2021-01-13 2021-01-13 基于深度学习的三维形貌测量方法、系统和存储介质 Active CN112802084B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110041097.0A CN112802084B (zh) 2021-01-13 2021-01-13 基于深度学习的三维形貌测量方法、系统和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110041097.0A CN112802084B (zh) 2021-01-13 2021-01-13 基于深度学习的三维形貌测量方法、系统和存储介质

Publications (2)

Publication Number Publication Date
CN112802084A CN112802084A (zh) 2021-05-14
CN112802084B true CN112802084B (zh) 2023-07-07

Family

ID=75810317

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110041097.0A Active CN112802084B (zh) 2021-01-13 2021-01-13 基于深度学习的三维形貌测量方法、系统和存储介质

Country Status (1)

Country Link
CN (1) CN112802084B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116105632B (zh) * 2023-04-12 2023-06-23 四川大学 一种结构光三维成像的自监督相位展开方法及装置
CN116958292A (zh) * 2023-06-15 2023-10-27 湖南视比特机器人有限公司 一种面向光滑物体面型重建的偏折成像方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107044833A (zh) * 2017-03-24 2017-08-15 南京理工大学 一种基于改进的傅立叶变换轮廓技术的超快三维形貌测量方法及其系统
CN110567398A (zh) * 2019-09-02 2019-12-13 武汉光发科技有限公司 双目立体视觉三维测量方法及系统、服务器及存储介质
CN111351450A (zh) * 2020-03-20 2020-06-30 南京理工大学 基于深度学习的单帧条纹图像三维测量方法
CN111402240A (zh) * 2020-03-19 2020-07-10 南京理工大学 基于深度学习的单帧彩色条纹投影的三维面型测量方法
CN111928799A (zh) * 2020-09-25 2020-11-13 南京理工大学 基于深度学习实现条纹图像对比度增强的三维测量方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107044833A (zh) * 2017-03-24 2017-08-15 南京理工大学 一种基于改进的傅立叶变换轮廓技术的超快三维形貌测量方法及其系统
CN110567398A (zh) * 2019-09-02 2019-12-13 武汉光发科技有限公司 双目立体视觉三维测量方法及系统、服务器及存储介质
CN111402240A (zh) * 2020-03-19 2020-07-10 南京理工大学 基于深度学习的单帧彩色条纹投影的三维面型测量方法
CN111351450A (zh) * 2020-03-20 2020-06-30 南京理工大学 基于深度学习的单帧条纹图像三维测量方法
CN111928799A (zh) * 2020-09-25 2020-11-13 南京理工大学 基于深度学习实现条纹图像对比度增强的三维测量方法

Also Published As

Publication number Publication date
CN112802084A (zh) 2021-05-14

Similar Documents

Publication Publication Date Title
CN109506589B (zh) 一种基于结构光场成像的三维轮廓测量方法
US11763518B2 (en) Method and system for generating a three-dimensional image of an object
CA2666256C (en) Deconvolution-based structured light system with geometrically plausible regularization
CN110163817B (zh) 一种基于全卷积神经网络的相位主值提取方法
CN110702034A (zh) 高反光表面三维面形测量方法、服务器及系统
CN112802084B (zh) 基于深度学习的三维形貌测量方法、系统和存储介质
CN109945802B (zh) 一种结构光三维测量方法
WO2012032341A1 (en) Method and apparatus of measuring the shape of an object
US11512946B2 (en) Method and system for automatic focusing for high-resolution structured light 3D imaging
CN111928799A (zh) 基于深度学习实现条纹图像对比度增强的三维测量方法
CN111563952A (zh) 基于相位信息与空间纹理特征实现立体匹配方法及系统
CN114526692B (zh) 一种基于离焦度解包裹的结构光三维测量方法及装置
CN112529794A (zh) 高动态范围结构光三维测量方法、系统及介质
CN115205360A (zh) 复合条纹投影钢管的三维外轮廓在线测量与缺陷检测方法及应用
CN111998799A (zh) 一种多频投影三维面形测量的运动区域检测方法及系统
CN109506590B (zh) 一种边界跃变相位误差快速定位方法
CN114136236A (zh) 一种结合极线约束的相位轮廓自适应投影测量方法
CN116518880A (zh) 一种基于傅里叶轮廓术的正则化解包裹方法及系统
CN116109772A (zh) 点云重建方法、装置、设备及可读存储介质
WO2019238583A1 (en) Deflectometric techniques
CN115908705A (zh) 一种基于特殊编码的三维成像方法及装置
Talebi et al. Binary code pattern unwrapping technique in fringe projection method
CN115187649B (zh) 抗强环境光干扰的三维测量方法、系统、设备及存储介质
ÖZDEN Local Adaptive Phase Correction Algorithm For 3-D Profilometry Systems Based on Phase Shifting Method
CN113503832B (zh) 一种基于物体横向尺寸辅助的绝对相位恢复方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant