CN115205360A - 复合条纹投影钢管的三维外轮廓在线测量与缺陷检测方法及应用 - Google Patents
复合条纹投影钢管的三维外轮廓在线测量与缺陷检测方法及应用 Download PDFInfo
- Publication number
- CN115205360A CN115205360A CN202210932966.3A CN202210932966A CN115205360A CN 115205360 A CN115205360 A CN 115205360A CN 202210932966 A CN202210932966 A CN 202210932966A CN 115205360 A CN115205360 A CN 115205360A
- Authority
- CN
- China
- Prior art keywords
- stripe
- phase
- network
- steel pipe
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Optics & Photonics (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Quality & Reliability (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种复合条纹投影钢管的三维外轮廓在线测量与缺陷检测方法及应用,其步骤包括:首先使用标准的张正友标定法标定相机的内参,然后通过投射横纵正交的正弦条纹结构光标定相机‑投影仪系统,结合设计的单张结构光和20步相移正弦条纹构建钢管表面数据集,训练三个深度学习网络分别用于相位提取,绝对相位范围获取和相位展开,最后根据最终的展开相位和系统的标定参数实现钢管的表面重建并和标准的钢管表面进行比对找出缺陷部分。本发明利用单张结构光和三个不同的深度学习网络进行解码,可以有效避免相位提取和绝对相位范围获取的误差叠加,在提高钢管表面三维重建精度方面有显著效果。
Description
技术领域
本发明涉及结构光三维重建领域,具体涉及一种复合条纹投影钢管三维外轮廓在线测量与缺陷检测方法及应用。
背景技术
实现动态场景的高精度三维重建一直是工业检测中的重要需求。传统的多频相移条纹轮廓术由于需要投射多个结构光图案,所以要求物体必须处于静止状态。但投射图片时,物体发生移动后将导致前后两帧图片相同像素坐标的点对应于物体的不同位置,进而导致了重建误差。为了应对动态场景,使用傅里叶变换轮廓术进行单帧重建,则对系统的位姿进行精心的设计和标定。此外,重建的物体往往具有复杂的表面,在进行傅里叶变换提取包裹相位时,由于0频的频谱泄漏,导致了提取的相位存在误差,影响了物体的重建精度。
发明内容
本发明为克服现有技术的不足之处,提供一种复合条纹投影钢管的三维外轮廓在线测量与缺陷检测方法及应用,以期能实现精度较高的单帧结构光三维重建,从而能实现钢管外轮廓的三维缺陷的准确检测。
本发明为解决技术问题所采用的技术方案是:
本发明一种复合条纹投影钢管的三维外轮廓在线测量与缺陷检测方法的特点是应用于相机-投影仪系统中,并按如下步骤进行:
步骤1、在所述相机-投影仪系统中,根据针孔相机模型标定出相机的内参Ac;
步骤2、标定相机-投影仪系统的参数;
步骤2.1、根据所述相机-投影仪系统中投影仪的图像尺寸,利用式(1)生成横纵正交的正弦条纹图像:
式(1),x、y分别为正弦条纹图像的像素坐标,a(x,y)为像素坐标(x,y)处的背景光强,b(x,y)为像素坐标(x,y)处的调制度,IW-n(x,y)为像素坐标(x,y)处横条纹的灰度值,IH-n(x,y)为像素坐标(x,y)处纵条纹的灰度值;f为设置的正弦条纹频率,W、H为正弦条纹图像的横、纵坐标总数,n和N分别为相移序号和相移步数;
步骤2.2、向标定板投射所述正弦条纹图像并利用相机采集标定板图像,从而利用式(2)计算标定板图像上角点的像素坐标(xc,yc)所对应的投影图像的像素坐标(xp,yp):
式(2)中,Φv(xc,yc)和Φu(xc,yc)为标定板图像上角点的像素坐标(xc,yc)的横、纵正弦相位;
步骤2.3根据(xc,yc)、(xp,yp)和针孔相机模型标定出投影仪的内参Ap以及投影仪和相机之间的旋转矩阵R、平移向量T;
步骤3、钢管数据集的构建;
步骤3.1、将两个频率周期相差为1的标准正弦条纹图分别移动相位值π后得到对应的正弦相位图,从而对两个标准正弦条纹图及其对应的正弦相位图中的正交正弦信号进行调制,并复合到一张图片中,从而得到复合条纹图片;
步骤3.2、使用投影仪将所述复合条纹图片及其标准正弦条纹图分别投射到钢管表面,相应得到钢管表面的复合条纹图像和标准条纹图像;
以钢管表面的复合条纹图像作为数据集的输入数据,以由钢管表面的标准条纹图像计算得到的包裹相位值、绝对相位值、以及处理后的条纹级次作为数据集的真值,从而构建钢管数据集;
步骤4、构建并训练深度学习网络,包括:包裹相位提取网络、绝对相位估计网络、条纹级次展开网络;
所述包裹相位提取网络和绝对相位估计网络均为u型结构的编码-解码网络;
其中,编码层包含c1个下采样模块,每个下采样模块由卷积层、relu激活层、批归一化层和残差层组成;所述编码层中的卷积核大小为ks1,步长为s1;
解码层包含c1个上采样模块,每个上采样模块由线性差值模块、卷积层、relu激活层、批归一化层和残差层组成;所述解码层中的卷积层的卷积核大小为ks2,步长为s2;
所述条纹级次展开网络为金字塔transformer结构的编码-解码网络;
其中,编码层包含c2个transformer编码模块,每个transformer编码模块由切片层、位置编码层和transformer层组成,且切片层的切片尺寸为ks2,transformer层的个数为ks3;
步骤4.1、将所述数据集的输入数据分别输入所述包裹相位提取网络和绝对相位估计网络中,并以所述数据集的真值中的包裹相位值作为所述包裹相位提取网络、以所述数据集的真值中的绝对相位值作为绝对相位估计网络的输出,对所述包裹相位提取网络和绝对相位估计网络进行训练,得到训练后的包裹相位提取网络和绝对相位估计网络;
步骤4.2、根据训练后的包裹相位提取网络输出的包裹相位作为所述条纹级次展开网络的输入,以所述数据集的真值中的条纹级次作为所述条纹级次展开网络的输出,对所述条纹级次展开网络进行训练,得到训练后的条纹级次展开网络;
步骤5、将待预测的复合条纹图片分别输入到训练后的包裹相位提取网络、练后的绝对相位估计网络中,并获得预测的包裹相位值和估计的绝对相位范围;
将预测的包裹相位值输入到训练后的条纹级次展开网络中,并获得展开的条纹级次图,根据估计的绝对相位范围,将展开的条纹级次图恢复到真实的绝对相位级次,并用于对预测的包裹相位进行展开,得到真实的绝对相位;
步骤6、根据真实的绝对相位、内参Ap、内参Ac、旋转矩阵R、平移向量T计算物体的点云坐标并进行圆柱拟合,得到拟合结果,将所述拟合结果与预先设定的阈值进行比较,筛选出偏离较大的点作为待预测的复合条纹图片中的缺陷区域。
本发明一种电子设备,包括存储器以及处理器的特点在于,所述存储器用于存储支持处理器执行所述三维外轮廓在线测量与缺陷检测方法的程序,所述处理器被配置为用于执行所述存储器中存储的程序。
本发明一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,其特点在于,所述计算机程序被处理器运行时执行所述三维外轮廓在线测量与缺陷检测方法的步骤。
与已有技术相比,本发明的有益效果体现在:
1、本发明提出利用深度学习对单帧图像进行分析,有效的降低了动态场景需要投射多个结构光图案的问题,可以有效的运用在动态场景里;
2、本发明针对钢管表面设计了复合结构光,避免了由于钢管表面本身的纹理导致结构光图案投影效果不佳的问题;
3、本发明设计了三个深度学习网络,使用金字塔transformer结构的编码-解码结构的条纹级次展开网络可获得全局信息,有效避免了相位提取和绝对相位范围获取的误差叠加,实现了更好的重建,使用条纹级次展开网络去处理包裹相位提取网络的结果,有效降低了直接提取展开相位的进行展开提取相位的两次误差,提高了重建的精度。
附图说明
图1为本发明方法的流程图;
图2为发明方法设计的结构光投射在钢管上采集到的图片;
图3为发明方法中使用神经网络处理后的三维重建效果图;
图4为发明方法中包裹相位提取网络和绝对相位估计网络的处理流程图;
图5为发明方法中条纹级次展开网络的处理流程图。
具体实施方式
本实施例中,一种复合条纹投影钢管的三维外轮廓在线测量与缺陷检测方法,是应用于相机-投影仪系统中,由相机采集投影仪投射在钢管表面的编码结构光,通过深度学习网络提取出被钢管表面调制的结构光编码,进而得到钢管表面的深度信息,根据系统标定的结果将深度恢复成点云得到钢管表面的形貌信息,并对其进行拟合和标准的标准模型进行比较找出缺陷区域;具体的说,如图1所示,该方法是按如下步骤进行:
步骤1、在相机-投影仪系统中,根据针孔相机模型使用张正友标定法标定出相机的内参Ac;
步骤2、标定相机-投影仪系统的参数;
步骤2.1、根据相机-投影仪系统中投影仪的图像尺寸,利用式(1)生成横纵正交的正弦条纹图像:
式(1),x、y分别为正弦条纹图像的像素坐标,a(x,y)为像素坐标(x,y)处的背景光强,b(x,y)为像素坐标(x,y)处的调制度,IW-n(x,y)为像素坐标(x,y)处横条纹的灰度值,IH-n(x,y)为像素坐标(x,y)处纵条纹的灰度值;f为设置的正弦条纹频率,W、H为正弦条纹图像的横、纵坐标总数,n和N分别为相移序号和相移步数;
步骤2.2、向标定板投射正弦条纹图像并利用相机采集标定板图像,将投影仪看作虚拟相机,根据式(2)计算标定板图像上角点的像素坐标(xc,yc)所对应的投影图像上的像素坐标(xp,yp):
式(2)中,Φv(xc,yc)和Φu(xc,yc)为标定板图像上角点的像素坐标(xc,yc)的横、纵正弦相位;
步骤2.3根据(xc,yc)、(xp,yp)和针孔相机模型标定出投影仪的内参Ap和投影仪与标定板之间的位姿关系,然后根据相机与标定板的位姿和投影仪和标定板的位姿得到投影仪相机之间的位置关系R、T。
步骤3、钢管数据集的构建;
步骤3.1、将两个频率周期相差为1的标准正弦条纹图分别移动相位值π后得到对应的正弦相位图,从而对两个标准正弦条纹图及其对应的正弦相位图中的正交正弦信号进行调制,并复合到一张图片中,从而得到复合条纹图片;两个不同频率周期相差为1,满足了相位实现解包裹的条件。两个相位值相差π的信号有效的减少了频谱的混叠,提高了包裹相位提取的精度;在本例中使用的是频率为31、32竖直条纹,通过式(3),用载波频率为30、60、90、120的水平正弦信号将编码信号复合到一张图中;
式(3)中,Ip为最终的复合条纹图片,(xp,yp)为图像坐标,Ib为的编码条纹,Icb为载波条纹,M为总共编码的图像数,m为编码序号;
步骤3.2、使用投影仪将复合条纹图片及其标准正弦条纹图分别投射到钢管表面,标准正弦条纹图采用20步相移法进行投射,得到钢管表面的复合条纹图像和标准条纹图像,共计41张图片;
以钢管表面的复合条纹图像作为数据集的输入数据,以由钢管表面的标准条纹图像计算得到的包裹相位值、绝对相位值、以及处理后的条纹级次作为数据集的真值,从而构建钢管数据集;
步骤4、构建并训练深度学习网络,包括:包裹相位提取网络、绝对相位估计网络、条纹级次展开网络;
包裹相位提取网络和绝对相位估计网络均为u型结构的编码-解码网络;
其中,编码层包含c1个下采样模块,每个下采样模块由卷积层、relu激活层、批归一化层和残差层组成;编码层中的卷积核大小为ks1,步长为s1;
解码层包含c1个上采样模块,每个上采样模块由线性差值模块、卷积层、relu激活层、批归一化层和残差层组成;解码层中的卷积层的卷积核大小为ks2,步长为s2;
使用卷积可以更好的关注图像上的局部信息,从局部中提取出需要的相位信息;u型结构很好的融合浅层和深层特征,可以很好的感知边缘等浅层纹理信息,让训练更稳定;
条纹级次展开网络为金字塔transformer结构的编码-解码网络;
其中,编码层包含c2个transformer编码模块,每个transformer编码模块由切片层、位置编码层和transformer层组成,且切片层的切片尺寸为ks2,transformer层的个数为ks3;若直接使用的绝对相位估计网络的结果去指导包裹相位提取网络的包裹相位展开,则存在着由于钢管表面纹理导致对相位估计网络的结果在某些部分存在着误差,为了避免绝对相位估计网络和包裹相位提取网络的误差叠加,使用条纹级次展开网络对包裹相位提取网络的预测结果进行连续相位展开。条纹级次展开网络的编码层由金字塔型transformer构成,Transformer具有很强的全局建模能力,采用Transformer的结构可以帮助更好的关注到整张图上的包裹相位,对当前像素的级数更好的预测,使用卷积层作为解码模块,有助于更好的预测相邻像素间的级次关系,最终获得条纹的级次信息;
步骤4.1、将数据集的输入数据分别输入包裹相位提取网络和绝对相位估计网络中,并以数据集的真值中的包裹相位值作为包裹相位提取网络、以数据集的真值中的绝对相位值作为绝对相位估计网络的输出,对包裹相位提取网络和绝对相位估计网络进行训练,得到训练后的包裹相位提取网络和绝对相位估计网络;
步骤4.2、根据训练后的包裹相位提取网络输出的包裹相位作为条纹级次展开网络的输入,以数据集的真值中的条纹级次作为条纹级次展开网络的输出,对条纹级次展开网络进行训练,得到训练后的条纹级次展开网络;
步骤5、将待预测的复合条纹图片如图2所示分别输入到训练后的包裹相位提取网络、练后的绝对相位估计网络中,并获得预测的包裹相位值和估计的绝对相位范围,如图4所示;将预测的包裹相位值输入到训练后的条纹级次展开网络中,并获得展开的条纹级次图,如图5所示,此时条纹级次图和真实相位级次之间存在着一个级数差,通过计算条纹级次图和绝对相位范围的差值取众数得到级数差,根据级数差和条纹级次图对包裹相位提取网络预测得到的包裹相位进行展开;
步骤6、根据真实的绝对相位、内参Ap、内参Ac、旋转矩阵R、平移向量T计算物体的点云坐标如图3并进行圆柱拟合,得到拟合结果,将拟合结果与预先设定的阈值进行比较,筛选出偏离较大的点作为待预测的复合条纹图片中的缺陷区域。
Claims (3)
1.一种复合条纹投影钢管的三维外轮廓在线测量与缺陷检测方法,其特征是应用于相机-投影仪系统中,并按如下步骤进行:
步骤1、在所述相机-投影仪系统中,根据针孔相机模型标定出相机的内参Ac;
步骤2、标定相机-投影仪系统的参数;
步骤2.1、根据所述相机-投影仪系统中投影仪的图像尺寸,利用式(1)生成横纵正交的正弦条纹图像:
式(1),x、y分别为正弦条纹图像的像素坐标,a(x,y)为像素坐标(x,y)处的背景光强,b(x,y)为像素坐标(x,y)处的调制度,IW-n(x,y)为像素坐标(x,y)处横条纹的灰度值,IH-n(x,y)为像素坐标(x,y)处纵条纹的灰度值;f为设置的正弦条纹频率,W、H为正弦条纹图像的横、纵坐标总数,n和N分别为相移序号和相移步数;
步骤2.2、向标定板投射所述正弦条纹图像并利用相机采集标定板图像,从而利用式(2)计算标定板图像上角点的像素坐标(xc,yc)所对应的投影图像的像素坐标(xp,yp):
式(2)中,Φv(xc,yc)和Φu(xc,yc)为标定板图像上角点的像素坐标(xc,yc)的横、纵正弦相位;
步骤2.3根据(xc,yc)、(xp,yp)和针孔相机模型标定出投影仪的内参Ap以及投影仪和相机之间的旋转矩阵R、平移向量T;
步骤3、钢管数据集的构建;
步骤3.1、将两个频率周期相差为1的标准正弦条纹图分别移动相位值π后得到对应的正弦相位图,从而对两个标准正弦条纹图及其对应的正弦相位图中的正交正弦信号进行调制,并复合到一张图片中,从而得到复合条纹图片;
步骤3.2、使用投影仪将所述复合条纹图片及其标准正弦条纹图分别投射到钢管表面,相应得到钢管表面的复合条纹图像和标准条纹图像;
以钢管表面的复合条纹图像作为数据集的输入数据,以由钢管表面的标准条纹图像计算得到的包裹相位值、绝对相位值、以及处理后的条纹级次作为数据集的真值,从而构建钢管数据集;
步骤4、构建并训练深度学习网络,包括:包裹相位提取网络、绝对相位估计网络、条纹级次展开网络;
所述包裹相位提取网络和绝对相位估计网络均为u型结构的编码-解码网络;
其中,编码层包含c1个下采样模块,每个下采样模块由卷积层、relu激活层、批归一化层和残差层组成;所述编码层中的卷积核大小为ks1,步长为s1;
解码层包含c1个上采样模块,每个上采样模块由线性差值模块、卷积层、relu激活层、批归一化层和残差层组成;所述解码层中的卷积层的卷积核大小为ks2,步长为s2;
所述条纹级次展开网络为金字塔transformer结构的编码-解码网络;
其中,编码层包含c2个transformer编码模块,每个transformer编码模块由切片层、位置编码层和transformer层组成,且切片层的切片尺寸为ks2,transformer层的个数为ks3;
步骤4.1、将所述数据集的输入数据分别输入所述包裹相位提取网络和绝对相位估计网络中,并以所述数据集的真值中的包裹相位值作为所述包裹相位提取网络、以所述数据集的真值中的绝对相位值作为绝对相位估计网络的输出,对所述包裹相位提取网络和绝对相位估计网络进行训练,得到训练后的包裹相位提取网络和绝对相位估计网络;
步骤4.2、根据训练后的包裹相位提取网络输出的包裹相位作为所述条纹级次展开网络的输入,以所述数据集的真值中的条纹级次作为所述条纹级次展开网络的输出,对所述条纹级次展开网络进行训练,得到训练后的条纹级次展开网络;
步骤5、将待预测的复合条纹图片分别输入到训练后的包裹相位提取网络、练后的绝对相位估计网络中,并获得预测的包裹相位值和估计的绝对相位范围;
将预测的包裹相位值输入到训练后的条纹级次展开网络中,并获得展开的条纹级次图,根据估计的绝对相位范围,将展开的条纹级次图恢复到真实的绝对相位级次,并用于对预测的包裹相位进行展开,得到真实的绝对相位;
步骤6、根据真实的绝对相位、内参Ap、内参Ac、旋转矩阵R、平移向量T计算物体的点云坐标并进行圆柱拟合,得到拟合结果,将所述拟合结果与预先设定的阈值进行比较,筛选出偏离较大的点作为待预测的复合条纹图片中的缺陷区域。
2.一种电子设备,包括存储器以及处理器,其特征在于,所述存储器用于存储支持处理器执行权利要求1所述方法的程序,所述处理器被配置为用于执行所述存储器中存储的程序。
3.一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,其特征在于,所述计算机程序被处理器运行时执行权利要求1所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210932966.3A CN115205360A (zh) | 2022-08-04 | 2022-08-04 | 复合条纹投影钢管的三维外轮廓在线测量与缺陷检测方法及应用 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210932966.3A CN115205360A (zh) | 2022-08-04 | 2022-08-04 | 复合条纹投影钢管的三维外轮廓在线测量与缺陷检测方法及应用 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115205360A true CN115205360A (zh) | 2022-10-18 |
Family
ID=83586199
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210932966.3A Pending CN115205360A (zh) | 2022-08-04 | 2022-08-04 | 复合条纹投影钢管的三维外轮廓在线测量与缺陷检测方法及应用 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115205360A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115816471A (zh) * | 2023-02-23 | 2023-03-21 | 无锡维度机器视觉产业技术研究院有限公司 | 多视角3d视觉引导机器人的无序抓取方法、设备及介质 |
CN117011478A (zh) * | 2023-10-07 | 2023-11-07 | 青岛科技大学 | 一种基于深度学习与条纹投影轮廓术的单张图像重建方法 |
CN118196308A (zh) * | 2024-05-16 | 2024-06-14 | 西北工业大学 | 一种结构光三维测量方法、介质及设备 |
-
2022
- 2022-08-04 CN CN202210932966.3A patent/CN115205360A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115816471A (zh) * | 2023-02-23 | 2023-03-21 | 无锡维度机器视觉产业技术研究院有限公司 | 多视角3d视觉引导机器人的无序抓取方法、设备及介质 |
CN117011478A (zh) * | 2023-10-07 | 2023-11-07 | 青岛科技大学 | 一种基于深度学习与条纹投影轮廓术的单张图像重建方法 |
CN117011478B (zh) * | 2023-10-07 | 2023-12-22 | 青岛科技大学 | 一种基于深度学习与条纹投影轮廓术的单张图像重建方法 |
CN118196308A (zh) * | 2024-05-16 | 2024-06-14 | 西北工业大学 | 一种结构光三维测量方法、介质及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11906286B2 (en) | Deep learning-based temporal phase unwrapping method for fringe projection profilometry | |
CN115205360A (zh) | 复合条纹投影钢管的三维外轮廓在线测量与缺陷检测方法及应用 | |
CN101608908B (zh) | 数字散斑投影和相位测量轮廓术相结合的三维数字成像方法 | |
CN104299211B (zh) | 一种自由移动式三维扫描方法 | |
CN109945802B (zh) | 一种结构光三维测量方法 | |
US20120176478A1 (en) | Forming range maps using periodic illumination patterns | |
CN103697815A (zh) | 基于相位编码的混频结构光三维信息获取方法 | |
CN113379818A (zh) | 一种基于多尺度注意力机制网络的相位解析方法 | |
CN112833818B (zh) | 一种单帧条纹投影三维面型测量方法 | |
CN111998800A (zh) | 一种基于散斑嵌入条纹的三维面形测量方法及系统 | |
CN111462246B (zh) | 一种结构光测量系统的设备标定方法 | |
Suresh et al. | PMENet: phase map enhancement for Fourier transform profilometry using deep learning | |
CN110988876B (zh) | 闭合鲁棒双基线InSAR相位解缠方法、系统及可读存储介质 | |
Liu et al. | A novel phase unwrapping method for binocular structured light 3D reconstruction based on deep learning | |
CN112802084B (zh) | 基于深度学习的三维形貌测量方法、系统和存储介质 | |
CN116645466A (zh) | 一种三维重建方法及电子设备、存储介质 | |
CN113503832B (zh) | 一种基于物体横向尺寸辅助的绝对相位恢复方法 | |
Peng et al. | Full-field visual vibration measurement of rotating machine under complex conditions via unsupervised retinex model | |
Kammel et al. | Topography reconstruction of specular surfaces | |
Peng et al. | Using triangle-based cubic interpolation in generation of object-adaptive fringe pattern | |
Budianto et al. | Gabor feature based discriminative dictionary learning for period order detection in fringe projection profilometry | |
CN117496499B (zh) | 3d结构光成像中虚假深度边缘的识别和补偿方法、系统 | |
Shen et al. | Real Time 3D Measurement with Dual-frequency Fringes by Deep Learning | |
CN117647198A (zh) | 多频相移结构光处理方法及装置、数据处理设备、介质 | |
Zhang | Fringe Projection Profilometry: Performance Improvement using Robust Principal Component Analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |