CN114719780B - 基于深度学习的反光物体表面结构光投影三维测量方法 - Google Patents
基于深度学习的反光物体表面结构光投影三维测量方法 Download PDFInfo
- Publication number
- CN114719780B CN114719780B CN202210360871.9A CN202210360871A CN114719780B CN 114719780 B CN114719780 B CN 114719780B CN 202210360871 A CN202210360871 A CN 202210360871A CN 114719780 B CN114719780 B CN 114719780B
- Authority
- CN
- China
- Prior art keywords
- image
- phase
- deep learning
- light projection
- reflective
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 26
- 238000000691 measurement method Methods 0.000 title claims abstract description 13
- 238000000034 method Methods 0.000 claims abstract description 43
- 238000005259 measurement Methods 0.000 claims abstract description 32
- 238000004364 calculation method Methods 0.000 claims abstract description 7
- 230000010363 phase shift Effects 0.000 claims abstract description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 9
- 230000011218 segmentation Effects 0.000 claims description 5
- 238000000605 extraction Methods 0.000 abstract description 2
- 238000004519 manufacturing process Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 239000000843 powder Substances 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000010420 art technique Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 238000010410 dusting Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/254—Projection of a pattern, viewing through a pattern, e.g. moiré
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明涉及一种基于深度学习的反光物体表面结构光投影三维测量方法,属于计算机视觉测量技术领域。本发明的测量方法包括:通过相移条纹投影法获得经过物体表面调制的条纹图像;通过深度学习获得预测的无反光图像;将预测的无反光图像与原始图像进行比较并融合;通过融合的图像获取包裹相位;对包裹相位进行相位展开,结合系统标定参数获得被测物体的三维形貌信息。本发明解决了结构光法测量时物体表面反光导致的相位提取错误,从而引起三维数据计算错误的问题,能够有效修复三维测量中由于反光引起的测量失真。
Description
技术领域
本发明涉及一种基于深度学习的反光物体表面结构光投影三维测量方法,属于计算机视觉测量技术领域。具体指一种基于相移条纹法的非接触式反光物体三维测量方法。
背景技术
随着现代制造业与生活水平的发展,以及虚拟现实和增强现实技术的普及,传统的二维机器视觉技术与接触式测量已经难以满足现代智能制造的需求,对实物的三维测量与重构的应用领域与需求也越来越多,广泛应用于三维设计、工业、汽车制造、航空航天、电子产品制造、逆向工程、动画制作、建筑行业。非接触式三维测量技术成为了一个发展趋势。
在众多三维测量技术中,结构光技术是一种较为成熟的主动光学三维测量方法。使用DLP投影仪将正弦条纹投影到被测物体表面,物体表面的高低起伏会使条纹产生变形,使用相机采变形条纹图像,计算其相位信息后,既可以对物体表面进行测量与三维重构。与接触式测量相比有很大优势,具有测量速度快、成本低、精度高、应用灵活方便等特点,能够测量温度高、易损坏等不易测量的物体。近年来,深度学习技术发展迅速,在计算机视觉领域得到了广泛的应用,使用深度学习技术也可以估计出无高光的条纹图像,它通过使用多层次的卷积神经网络(CNN)来拟合输入与输出之间的关系,通过训练后可以快速、高效的实现无高光条纹图像的估计。
目前,采用结构光法对具有反光的光滑物体表面进行测量时,由于物体表面反光会导致反光部位的测量失真。传统的解决方法是在测量反光物体时在物体表面涂抹一层粉末,以此来改变物体表面的反光特性,但是粉末涂抹的厚度与均匀程度都会对测量结果造成影响,测量结束后还要把粉末清楚干净,使整个测量过程变得繁琐。对于一些表面不宜涂粉的被测物体,此种方法也变得不再适用。本发明将深度学习应用结构光测量系统上,使用深度学习的方法对条纹图像中的高光进行修复,便于后续的三维重构。
目前,采用多张图像消除图像中反光的方法在采集图片时较为繁琐,需要改变相机、光源的位置或使用多个相机。从不同的角度拍摄相同的物体,还会产生复杂的拼接问题。而使用单张图像分离反射分量的方法通常需要用到图片的色彩信息,当测量非彩色物体时,一些方法的表现就会变得不太理想。而使用卷积神经网络处理后的图像为估计的无高光图像,虽然高光部分得到了消除与修复,但或多或少地对图像中无高光的部分也进行了修改。
发明内容
本发明涉及一种基于深度学习的反光物体表面结构光投影三维测量方法,用于满足如今制造业在对反光物体视觉测量方面的需求,解决了结构光系统测量时反光部位的相位提取错误,从而引起三维数据计算错误的问题,本发明将估计的无高光图像与原始图像根据亮度信息进行混合,在修复条纹图像中高光的同时保留了原始图片无高光部分的特征。
本发明采用的技术特征是:一种基于深度学习的反光物体表面结构光投影三维测量方法,包括如下步骤:
通过相移条纹投影法获得经过物体表面调制的条纹图像;
通过深度学习获得预测的无反光图像;
将预测的无反光图像与原始图像进行比较并融合;
通过融合的图像获取包裹相位;
对包裹相位进行相位展开,结合系统标定参数获得被测物体的三维形貌信息。
具体地,包括以下步骤:
步骤1:采用结构光投影测量系统,将n幅同频率、相位差相等的正弦光栅条纹图分别投影到被测物体上,使用相机采集这些经过被测物体表面调制后的变形条纹图像I1,I2,I3,...,In。采用相同的方式在参考品平面上投影相同的条纹图像,用相机采集参考面上的条纹图像R1,R2,R3,...,Rn;
步骤6:基于步骤5与步骤1,裁剪掉步骤2中图像中扩张出来的区域,获得与I1,I2,I3,...,In同样尺寸的无反光预测图像P1,P2,P3,...,Pn;
具体地,所述步骤1中,所述结构光投影测量系统由DLP投影仪、CCD相机、被测物体和参考平面组成;所述CCD相机与参考平面之间的距离为C,所述DLP投影仪与所述CCD相机之间水平方向的距离为d。
具体地,所述步骤2中,在对图像进行扩张时,图像左侧扩张像素数l与右侧扩张像素数r相等,上侧扩张像素数t与下侧扩张像素数b相等。
具体地,所述步骤3中,每一张分割后的子图具有唯一的文件名,通过子图的文件名即可知到其在原始图片中的位置。
具体地,所述步骤4中,所述卷积神经网络采用编码器-解码器结构与空洞残差网络进行串联的结构。
具体地,所述步骤5中,每一组去除反光之后的图像具有与输入图像类似的唯一文件名,通过唯一的文件名即可对应其在原始图片中的位置,以此对每一组去除反光之后的图像进行拼接合并。
具体地,所述步骤7中,将无反光预测图像P1,P2,P3,...,Pn与原始图像I1,I2,I3,...,In逐个像素比较亮度,将每个像素三通道中最大值与最小值的平均数作为亮度:
L=(max(Ir,Ig,Ib)+min(Ir,Ig,Ib))/2
式中,L为图像的亮度,Ir,Ig,Ib为该图像RGB三个通道的数值。
优选的,所述步骤8中,所述融合后的图像M1,M2,M3,...,Mn与原始的条纹图像I1,I2,I3,...,In具有相同的尺寸,但高光部分已被修复。
具体地,所述步骤10中,通过计算被测物体表面与参考平面之间的高度差,即可获得被测物体的三维形貌信息,具体计算方式为:
式中,C为CCD相机与参考平面之间的距离,d为DLP投影仪与CCD相机之间水平方向的距离;Δh(x,y)为被测物体表面某点p(x,y)相对于参考面的高度;为被测物体表面某点p(x,y)展开后的相位;f0为所投影的正弦条纹的频率。
本发明的有益效果是:本发明提出了一种去除光栅条纹图像中镜面反射分量的新方法,这种方法采用了深度学习的方式估计无高光的条纹图像。将此图像与原始图像进行逐个像素比较,取二者中亮度较小的作为最终去除高光的结果。使用这种方法可以实现对单张图像进行高光去除,同时保留了原始图片无高光部分的特征,消除物体表面高光对三维测量的影响。该方法使用一个256×256尺寸为输入的深度学习模型,使用将图像分割后分块处理的方法,可以实现对任意尺寸的图像进行处理。而且该方法无须使用多个相机采集图像,对具有强反光、色彩信息较少的图像也具有良好的效果。三维重构的表面过度也较为平滑。本发明可以很好的修复相移条纹投影法中由于反光引起的测量失真。
附图说明
图1为本发明的系统流程图;
图2为本发明的结构光测量系统框图;
图3为本发明实施例中的四步相移正弦光栅条纹图;
图4为本发明的图像扩张与裁剪过程的流程图;
图5为本发明的图像融合过程的流程图。
具体实施方式
实施例1:本实施例提供一种基于深度学习的反光物体表面结构光投影三维测量方法,使用估计的无高光图像与原始图像相互结合,最后计算相位值,获取三维数据,结构框图如图1所示。
如图2所示,一种基于深度学习的反光物体表面结构光投影三维测量方法,包括DLP投影仪1、工业相机2、被测物体3、参考平面4,支架5。其中,DLP投影仪1与工业相机2呈一定角度固定在支架5上,被测物体3放置在参考平面4上。
所述基于深度学习和结构光相结合的反光物体三维测量方法,包括以下步骤:
步骤1:采用结构光投影测量系统,使用四步相移法,将4幅同频率、相位差相等的正弦光栅条纹图分别投影到被测物体上(正弦光栅条纹图如图3所示),使用工业相机采集这些经过被测物体表面调制后的变形条纹图像I1,I2,I3,...,In。采用相同的方式在参考品平面上投影相同的条纹图像,用相机采集参考面上的条纹图像R1,R2,R3,...,Rn;结构光投影测量系统由DLP投影仪、CCD相机、被测物体和参考平面组成;所述CCD相机与参考平面之间的距离为C,所述DLP投影仪与所述CCD相机之间水平方向的距离为d;
步骤2:将每张图片的尺寸扩充至分割后子图尺寸256×256的整数倍,对原始图像周围扩张的区域采用边缘镜像的方式进行填充,获得扩张后的图像在对图像进行扩张时,图像左侧扩张像素数l与右侧扩张像素数r相等,上侧扩张像素数t与下侧扩张像素数b相等;
步骤3:基于步骤2,将扩张后的图像分割成256×256大小的n组子图,其中每组有m幅子图: 每一张分割后的子图具有唯一的文件名,通过子图的文件名即可知到其在原始图片中的位置,扩张与裁剪的具体方式参看图4;
步骤5:基于步骤4与步骤2,每一组去除反光之后的图像具有与输入图像类似的唯一文件名,通过唯一的文件名即可对应其在原始图片中的位置,分别将每一组预测的子图按照其分割时的位置进行合并,获得与同样尺寸的无反光预测图像
步骤6:基于步骤5与步骤1,裁剪掉步骤2中图像中扩张出来的区域,获得与I1,I2,I3,...,In同样尺寸的无反光预测图像P1,P2,P3,...,Pn;
步骤7:基于步骤6与步骤1,比较I1,I2,I3,...,In与P1,P2,P3,...,Pn的亮度和取二者中亮度较小的作为最终去除高光的结果M1,M2,M3,...,Mn,图像混合的具体方式参看图5;
具体为:将无反光预测图像P1,P2,P3,...,Pn与原始图像I1,I2,I3,...,In逐个像素比较亮度,将每个像素三通道中最大值与最小值的平均数作为亮度:
L=(max(Ir,Ig,Ib)+min(Ir,Ig,Ib))/2
式中,L为图像的亮度,Ir,Ig,Ib为该图像RGB三个通道的数值;
步骤8:基于步骤7与步骤1,由融合后的图像M1,M2,M3,...,Mn获得包裹相位由R1,R2,R3,...,Rn获得参考相位使用包裹相位与参考相位求差,得到相对的包裹形变相位融合后的图像M1,M2,M3,...,Mn与原始的条纹图像I1,I2,I3,...,In具有相同的尺寸,但高光部分已被修复;
步骤10:基于步骤9,将真实形变相位结合系统标定参数获得被测物体的三维形貌信息。其中,对所述结构光系统采用现有技术进行标定,如采用使用广泛的张氏标定法。然后通过计算被测物体表面与参考平面之间的高度差,即可获得被测物体的三维形貌信息,具体计算方式为:
式中,C为CCD相机与参考平面之间的距离,d为DLP投影仪与CCD相机之间水平方向的距离;Δh(x,y)为被测物体表面某点p(x,y)相对于参考面的高度;为被测物体表面某点p(x,y)展开后的相位;f0为所投影的正弦条纹的频率。
综上,本发明采用一种新的正弦条纹高光去除方法,首先使用深度学习的方式估计无高光的条纹图像。将此图像与原始图像进行逐个像素比较,取二者中亮度较小的作为最终去除高光的结果。采用处理后的图像进行相位计算,从而消除物体表面高光对三维测量的影响。
本发明至少包括如下技术效果:
(1)可以实现对单张正弦条纹图像进行高光去除,同时保留了原始图片无高光部分的特征,消除物体表面高光引起的三维数据计算错误。
(2)由于使用一个256×256尺寸为输入的深度学习模型,将图像分割后再处理,即可对任意尺寸的条纹图像进行操作,能够将本方法应用到一些现有的结构光测量测量系统中。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。
Claims (9)
1.一种基于深度学习的反光物体表面结构光投影三维测量方法,其特征在于:包括如下步骤:
通过相移条纹投影法获得经过物体表面调制的条纹图像;
通过深度学习获得预测的无反光图像;
将预测的无反光图像与原始图像进行比较并融合;
通过融合的图像获取包裹相位;
对包裹相位进行相位展开,结合系统标定参数获得被测物体的三维形貌信息;
具体包括以下步骤:
步骤1:采用结构光投影测量系统,将n幅同频率、相位差相等的正弦光栅条纹图分别投影到被测物体上,使用相机采集这些经过被测物体表面调制后的变形条纹图像I1,I2,I3,...,In,采用相同的方式在参考品平面上投影相同的条纹图像,用相机采集参考面上的条纹图像R1,R2,R3,...,Rn;
步骤6:基于步骤5与步骤1,裁剪掉步骤2中图像中扩张出来的区域,获得与I1,I2,I3,...,In同样尺寸的无反光预测图像P1,P2,P3,...,Pn;
2.根据权利要求1所述的一种基于深度学习的反光物体表面结构光投影三维测量方法,其特征在于:所述步骤1中,结构光投影测量系统由DLP投影仪、CCD相机、被测物体和参考平面组成;CCD相机与参考平面之间的距离为C,DLP投影仪与CCD相机之间水平方向的距离为d。
3.根据权利要求1所述的一种基于深度学习的反光物体表面结构光投影三维测量方法,其特征在于:所述步骤2中,在对图像进行扩张时,图像左侧扩张像素数l与右侧扩张像素数r相等,上侧扩张像素数t与下侧扩张像素数b相等。
4.根据权利要求1所述的一种基于深度学习的反光物体表面结构光投影三维测量方法,其特征在于:所述步骤3中,每一张分割后的子图具有唯一的文件名,通过子图的文件名即可知到其在原始图片中的位置。
5.根据权利要求1所述的一种基于深度学习的反光物体表面结构光投影三维测量方法,其特征在于:所述步骤4中,所述卷积神经网络采用编码器-解码器结构与空洞残差网络进行串联的结构。
6.根据权利要求1所述的一种基于深度学习的反光物体表面结构光投影三维测量方法,其特征在于:所述步骤5中,每一组去除反光之后的图像具有与输入图像类似的唯一文件名,通过唯一的文件名即可对应其在原始图片中的位置,以此对每一组去除反光之后的图像进行拼接合并。
7.根据权利要求1所述的一种基于深度学习的反光物体表面结构光投影三维测量方法,其特征在于:所述步骤7中,将无反光预测图像P1,P2,P3,...,Pn与原始图像I1,I2,I3,...,In逐个像素比较亮度,将每个像素三通道中最大值与最小值的平均数作为亮度:
L=(max(Ir,Ig,Ib)+min(Ir,Ig,Ib))/2
式中,L为图像的亮度,Ir,Ig,Ib为该图像RGB三个通道的数值。
8.根据权利要求1所述的一种基于深度学习的反光物体表面结构光投影三维测量方法,其特征在于,所述步骤8中,所述融合后的图像M1,M2,M3,...,Mn与原始的条纹图像I1,I2,I3,...,In具有相同的尺寸,但高光部分已被修复。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210360871.9A CN114719780B (zh) | 2022-04-07 | 2022-04-07 | 基于深度学习的反光物体表面结构光投影三维测量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210360871.9A CN114719780B (zh) | 2022-04-07 | 2022-04-07 | 基于深度学习的反光物体表面结构光投影三维测量方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114719780A CN114719780A (zh) | 2022-07-08 |
CN114719780B true CN114719780B (zh) | 2022-12-16 |
Family
ID=82242077
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210360871.9A Active CN114719780B (zh) | 2022-04-07 | 2022-04-07 | 基于深度学习的反光物体表面结构光投影三维测量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114719780B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5912768A (en) * | 1996-12-31 | 1999-06-15 | Cognex Corporation | Depth-from-defocus optical apparatus with invariance to surface reflectance properties |
CN103868472A (zh) * | 2013-12-23 | 2014-06-18 | 黑龙江科技大学 | 一种用于高反射率零件的面结构光三维测量装置与方法 |
EP2827097A1 (en) * | 2012-03-14 | 2015-01-21 | National Institute of Advanced Industrial Science And Technology | Phase distribution analysis method and device for fringe image using high-dimensional brightness information, and program therefor |
CN107607040A (zh) * | 2017-08-11 | 2018-01-19 | 天津大学 | 一种适用于强反射表面的三维扫描测量装置及方法 |
CN110930323A (zh) * | 2019-11-07 | 2020-03-27 | 华为技术有限公司 | 图像去反光的方法、装置 |
CN113554575A (zh) * | 2020-04-23 | 2021-10-26 | 华东交通大学 | 一种基于偏振原理的高反物体表面高光去除方法 |
CN114170106A (zh) * | 2021-12-10 | 2022-03-11 | 无锡图创智能科技有限公司 | 基于改进U-Net模型的高反光噪声去除方法 |
-
2022
- 2022-04-07 CN CN202210360871.9A patent/CN114719780B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5912768A (en) * | 1996-12-31 | 1999-06-15 | Cognex Corporation | Depth-from-defocus optical apparatus with invariance to surface reflectance properties |
EP2827097A1 (en) * | 2012-03-14 | 2015-01-21 | National Institute of Advanced Industrial Science And Technology | Phase distribution analysis method and device for fringe image using high-dimensional brightness information, and program therefor |
CN103868472A (zh) * | 2013-12-23 | 2014-06-18 | 黑龙江科技大学 | 一种用于高反射率零件的面结构光三维测量装置与方法 |
CN107607040A (zh) * | 2017-08-11 | 2018-01-19 | 天津大学 | 一种适用于强反射表面的三维扫描测量装置及方法 |
CN110930323A (zh) * | 2019-11-07 | 2020-03-27 | 华为技术有限公司 | 图像去反光的方法、装置 |
CN113554575A (zh) * | 2020-04-23 | 2021-10-26 | 华东交通大学 | 一种基于偏振原理的高反物体表面高光去除方法 |
CN114170106A (zh) * | 2021-12-10 | 2022-03-11 | 无锡图创智能科技有限公司 | 基于改进U-Net模型的高反光噪声去除方法 |
Non-Patent Citations (1)
Title |
---|
基于高动态范围图像技术的高光误差补偿方法;吴雨祥等;《红外技术》;20181018;第40卷(第10期);第972-977页 * |
Also Published As
Publication number | Publication date |
---|---|
CN114719780A (zh) | 2022-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110514143B (zh) | 一种基于反射镜的条纹投影系统标定方法 | |
CN111563564B (zh) | 基于深度学习的散斑图像逐像素匹配方法 | |
CN101813461B (zh) | 基于复合彩色条纹投影的绝对相位测量方法 | |
CN100520285C (zh) | 投射多频光栅的物体表面三维轮廓的视觉测量方法 | |
Zhang et al. | A 3D reconstruction method for pipeline inspection based on multi-vision | |
US20120176478A1 (en) | Forming range maps using periodic illumination patterns | |
US20120176380A1 (en) | Forming 3d models using periodic illumination patterns | |
CN104077804A (zh) | 一种基于多帧视频图像构建三维人脸模型的方法 | |
CN108759721B (zh) | 一种基于光学条纹投影和反射的三维形貌测量方法及装置 | |
CN105783775A (zh) | 一种镜面及类镜面物体表面形貌测量装置与方法 | |
CN113379818B (zh) | 一种基于多尺度注意力机制网络的相位解析方法 | |
CN104299211A (zh) | 一种自由移动式三维扫描方法 | |
CN205505996U (zh) | 一种基于条纹投影的全景三维形貌测量装置 | |
CN106091978B (zh) | 斜入式激光干涉法测量中干涉条纹图像的拼接方法 | |
CN106546193B (zh) | 一种高反射物体表面三维测量方法和系统 | |
Le et al. | Reconstruction of accurate 3-D surfaces with sharp edges using digital structured light projection and multi-dimensional image fusion | |
CN109751969A (zh) | 一种利用正反格雷码线移光栅的三维非接触扫描方法 | |
CN111947599A (zh) | 基于学习的条纹相位恢复和散斑相关的三维测量方法 | |
CN112945089A (zh) | 一种基于条纹宽度调制的结构光编码方法 | |
CN115701871A (zh) | 一种点云融合的方法、装置、三维扫描设备及存储介质 | |
Ma et al. | A multidistance constraint method for three-dimensional reconstruction with coaxial fringe projection measurement system | |
CN114719780B (zh) | 基于深度学习的反光物体表面结构光投影三维测量方法 | |
CN117824532A (zh) | 面结构光三维测量系统及方法 | |
CN113503832B (zh) | 一种基于物体横向尺寸辅助的绝对相位恢复方法 | |
CN110375672B (zh) | 基于模拟退火算法的实时相位测量轮廓术 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |