CN111043988B - 一种基于图形学和深度学习的单张条纹投影测量方法 - Google Patents

一种基于图形学和深度学习的单张条纹投影测量方法 Download PDF

Info

Publication number
CN111043988B
CN111043988B CN201911260063.XA CN201911260063A CN111043988B CN 111043988 B CN111043988 B CN 111043988B CN 201911260063 A CN201911260063 A CN 201911260063A CN 111043988 B CN111043988 B CN 111043988B
Authority
CN
China
Prior art keywords
stripe
image
dimensional
graphics
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911260063.XA
Other languages
English (en)
Other versions
CN111043988A (zh
Inventor
王辰星
管清泽
王凡周
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN201911260063.XA priority Critical patent/CN111043988B/zh
Publication of CN111043988A publication Critical patent/CN111043988A/zh
Application granted granted Critical
Publication of CN111043988B publication Critical patent/CN111043988B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/254Projection of a pattern, viewing through a pattern, e.g. moiré
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • G01B21/04Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
    • G01B21/042Calibration or calibration artifacts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种基于图形学和深度学习的单张条纹投影测量方法,将条纹图深度求算过程转化为畸变条纹图和原始条纹图的匹配问题,利用深度学习网络的特征提取能力实现分类匹配,从而实现单张深度图的预测,为解决实际采集数据集成本高、不同问题背景下采集条纹图标准不一的问题,提出使用计算机图形学方法仿真生成条纹图,从而获得低成本、高质量、高自由度的大量样本,为获得像素级精度,使用语义分割网络Unet,通过对畸变条纹图多次特征抽取将原始条纹图映射到高维特征空间实现匹配。有益效果在于:提出了基于计算机图形学仿真的条纹图获取方法,使用深度学习方法实现高精度、高速度的深度预测,实现完整的单张条纹图直接到深度图的解决方案。

Description

一种基于图形学和深度学习的单张条纹投影测量方法
技术领域
本发明涉及光学、计算机视觉和人工智能技术领域,尤其涉及一种基于图形学和深度学习的单张条纹投影测量方法。
背景技术
随着计算机视觉的发展,高精度三维数据在医疗、安防、逆向工程等方面需求广泛,相应三维测量技术也获得了长足的发展。测量方法主要分为被动式的飞行时间法(TOF)、双目视觉法和被动式的结构光投影法。相比较于被动式测量方法,主动式方法具有明显的精度优势,其中基于条纹投影的测量方法因其高精度和良好的分析特性获得广泛应用。
条纹投影测量方法主要分为基于多幅畸变条纹的相移法和基于单张条纹的频谱分析法。相移法精度较高,但测量时间较长,测量过程中要求物体保持静止,应用场合十分受限,单张条纹频谱分析方法只需要一张畸变条纹图,具有良好的动态特性,但是测量精度较低。
深度学习在特征抽取和分类问题上表现优越。ImageNet证明了深度学习在特征抽取和图像分类问题上的强大优越性,自此以后深度学习领域迎来了巨大的发展,网络结构获得了不断的改善。其中2016年Segnet将网络用于语义分割并获得了像素级的精度,之后的DeelLap、FCN、Unet都在此基础上取得了很大的精度提升,其中起源于医学分割的Unet使用U形结构将网络提取到高维特征空间,通过对称结构再次获得与原始输入大小相同的图片,取得了良好的精度并成为后来的一种网络范式。
但是,深度学习网络需要大量的样本数据库,而在实际中采集符合测量精度需求的不同物体、不同场景的数据样本是非常困难的事情,效率低下、且会给实际网络的训练带来很多问题,而数据样本的可靠性及数据量往往又决定了所训练网络模型的精度和泛化能力,综合种种,因此需要一些技术和方法来解决这些问题,本发明正是在这种需求的背景下应运而生。
发明内容
技术问题
相移条纹投影测量方法因投拍多张图片而耗时长,单张条纹投影仪测量方法精度不高,基于深度学习的单张相位恢复或深度估计的测量方法可实现高帧率的测量,但测量精度会受到样本数据规模的限制,若要提高测量精度,则需要采集大量的样本库数据,而这个工作在实际操作中是非常困难的。本发明提出一种基于图形学和深度学习的单张条纹投影测量方法,采用图形学的技术和方法来实现样本数据的仿真的增强,基于深度学习技术来实现条纹图像的动态深度估计和预测,该方法简单、易操作,大大提高了深度学习进行条纹投影测量的可能性和提高了测量的精度,使条纹投影的高帧率、高精度的动态测量得以实现。
技术方案
一种基于图形学和深度学习的单张条纹投影测量方法,具体步骤为:
步骤1:通过计算机图形学方法,构造虚拟的单相机、单投影仪的光栅三维条纹测量系统,在该虚拟测量系统中导入三维仿真实体模型,从而虚拟拍摄采集光栅条纹图,并将三维实体模型映射到二维空间,生成深度图;最终建立大规模、高自由度的条纹图—深度图样本数据库;
步骤2:将样本数据库分为训练集、验证集和测试集,并进行翻转、旋转等数据增强;
步骤3:构建像素级语义分割网络,将生成的条纹图样本作为输入,相应的深度图作为输出,训练神经网络模型,通过将条纹图映射到高维空间,实现像素级深度预测,并且保证输出结果与原始图片尺寸相同;
步骤4:所得训练模型在验证集和测试集进行测试,通过参数整定后获得较高精度和速度的网络模型;
步骤5:搭建实际的光栅条纹测量系统,并完成系统的整体标定,用训练的网络模型实现条纹图实时采集、实时测量深度模型并转化为点云的动态测量过程。
方案的具体内容包括:
1.仿真采集样本数据,通过改变虚拟系统的光照强度、物体尺寸、拍摄视角以及添加阴影、噪声等真实感操作,最终生成不同条纹周期、符合实际的条纹,具体步骤为:
1) 导入三维数据模型,使用ShapeNetCore数据库中的三维数据模型,并按照比例调整摄像机视角和物体大小,使物体在所成像中上下左右各留有1/10空余,对应不同实际尺度大小的物体,均归一化到同一尺度下;
2)光栅条纹投影,仅保留光传播过程中的衰减特性,使用随机噪声作为光传播噪声,保留Blender内置点扩散函数(Point Spread Function,PSF);保留物体阴影;使用大小为512*512的投影条纹,使条纹周期分别为20、25、30、35、40 纵向投影得到图片,在使用35像素条纹周期时使用光照强度范围的间隔5均匀采样共10张,拍摄物体的六个完整平面,因此针对一个物体的三维数据可以得到64张图片和对应深度图;
3) 数据存储,设计Python脚本自动渲染数据,得到的图像保存为二进制文件。
2. 本实例中构建的30000组样本数据库,其中22000组作为样本的训练集,4000组作为验证集,3000组作为测试集;预处理包括图像旋转、翻转;采用float16的二进制文件保存原始数据和深度数据,网络训练过程中将数据预加载到缓存中,保证训练效率和数据量。
3. 构建及训练深度学习网络模型,采用对称结构Unet,并采用同层之间跳跃连接增强网络的表达能力;使用512*512 原始图像输入,通过特征提取部分将图像映射到16*16的高维特征空间,之后通过对称的网络得到同样大小的输出;中间层使用Relu,最后一层使用Sigmoid,损失函数使用平均二次误差函数(mean square error,mse),学习率0.001,使用批正则化和学习率衰减来避免过拟合。
4. 将数据集随机分割为训练集、验证集和测试集三部分,训练集训练样本,通过SGD优化器更新网络参数,训练过程在图形处理单元(GPU)上实现,测试集结果作为网络训练最终结果。
5. 在实际空间中,搭建摄像机、投影仪的测量系统,并对系统采用通用的条纹投影系统标定法进行标定,拍摄图像切割至512*512大小输入网络,结合标定数据将输出的深度图转化为三维点云,得到最终实际应用结果。
有益效果
1.相比较传统相移条纹投影测量方法,本发明精度较高,并且获得了明显的速度提升,能够满足实时性要求;
2.相比较传统单张条纹投影测量方法,本发明精度明显提高,并且算法耗时更少;
3.相较于其它基于深度学习的单张条纹投影测量方法,本发明基于图形学可灵活、自由地仿真构建、增强大规模样本数据库,从而大大提高同类方法实现的可能性及精度;
4.相比较求算包裹相位后条纹展开的方法,本发明实现了畸变条纹图直接到深度图的求算,避免了计算过程中的信息损失,简化了求算过程,从而获得了较高精度和速度;
5.本发明方法大大提高了实时在线三维测量的精度和效率,可用于实践。
附图说明
图1为本发明整体算法图,包括仿真生成数据集、数据集训练网络和用网络进行实际测量。
图2为本发明用blender仿真生成数据集的过程。
图3为本发明数据集仿真结果和网络训练结果。
具体实施方式
为详细说明本发明的技术内容、构造特征、所实现目的及其效果,下面将结合本发明实施例中附图对本发明详予说明。显然,附图中所描述的实施例仅仅是本发明的一个实施例,而不是全部的实施例。在附图中描述和示出的本发明实施例的组件可以以不同的数量和顺序来布置和设计。因此,基于本发明的实施例,本领域技术人员在没有做出创造性的劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
一种基于图形学和深度学习的单张条纹投影测量方法,基本步骤为:
步骤1:通过计算机图形学方法,构造虚拟的单相机、单投影仪的光栅三维条纹测量系统,在该虚拟测量系统中导入三维仿真实体模型,从而虚拟拍摄采集光栅条纹图,并将三维实体模型映射到二维空间,生成深度图;最终建立大规模、高自由度的条纹图—深度图样本数据库;
步骤2:将样本数据库分为训练集、验证集和测试集,并进行翻转、旋转等数据增强;
步骤3:构建像素级语义分割网络,将生成的条纹图样本作为输入,相应的深度图作为输出,训练神经网络模型,通过将条纹图映射到高维空间,实现像素级深度预测,并且保证输出结果与原始图片尺寸相同;
步骤4:所得训练模型在验证集和测试集进行测试,通过参数整定后获得较高精度和速度的网络模型;
步骤5:搭建实际的光栅条纹测量系统,并完成系统的整体标定,用训练的网络模型实现条纹图实时采集、实时测量深度模型并转化为点云的动态测量过程。
每一步骤的实施方式具体如下:
1.仿真采集样本数据,通过改变虚拟系统的光照强度、物体尺寸、拍摄视角以及添加阴影、噪声等真实感操作,最终生成不同条纹周期、符合实际的条纹,主要步骤如下:
1) 导入三维数据模型,本实例使用ShapeNetCore数据库中的三维数据模型,并按照比例调整摄像机视角和物体大小,本实例中使物体在所成像中上下左右各留有1/10空余,对应不同实际尺度大小的物体,均归一化到同一尺度下;
2) 光栅条纹投影,本实例中仅保留光传播过程中的衰减特性,使用随机噪声作为光传播噪声,保留Blender内置点扩散函数(Point Spread Function,PSF)。保留物体阴影。本实例中使用大小为512*512的投影条纹,使条纹周期分别为20、25、30、35、40 纵向投影得到图片,在使用35像素条纹周期时使用光照强度范围的间隔5均匀采样共10张,拍摄物体的六个完整平面,因此针对一个物体的三维数据可以得到64张图片和对应深度图;
3) 数据存储,设计Python脚本自动渲染数据,得到的图像保存为二进制文件。
2. 本实例中构建的30000组样本数据库,其中22000组作为样本的训练集,4000组作为验证集,3000组作为测试集。预处理包括图像旋转、翻转。采用float16的二进制文件保存原始数据和深度数据,网络训练过程中将数据预加载到缓存中,保证训练效率和数据量。
3. 基于Keras构建及训练深度学习网络模型,采用对称结构Unet,并采用同层之间跳跃连接增强网络的表达能力;使用512*512 原始图像输入,通过特征提取部分将图像映射到16*16的高维特征空间,之后通过对称的网络得到同样大小的输出。中间层使用Relu,最后一层使用Sigmoid,损失函数使用平均二次误差函数(mean square error,mse),学习率0.001,使用批正则化和学习率衰减来避免过拟合。
4.将数据集随机分割为训练集、验证集和测试集三部分,训练集训练样本,通过SGD优化器更新网络参数,训练过程在图形处理单元(GPU)上实现,因为原始图片较大,在训练过程中我们使用较小批,网络在一块RTX 2080 Ti 训练22小时后收敛。学习率为0.001并使用学习率衰减策略,使用Adam优化器。后处理。深度学习网络结果误差往往集中于边缘位置,并出现明显跳变,因此我们对网络最终得到结果进行后处理。在实际中我们使用5*5窗口的中值滤波平滑和消除边缘误差。测试集结果作为网络训练最终结果。
5. 在实际空间中,搭建摄像机、投影仪的测量系统,并对系统采用通用的条纹投影系统标定法进行标定,拍摄图像切割至512*512大小输入网络,结合标定参数将输出的深度图转化为三维点云,得到最终实际应用结果。
上述内容仅是本发明的一个实施例,通过添加或删除部分卷积层、添加或删除部分高速通路、更改部分或全部网络训练的超参数或采用其他的网络训练优化算法,本发明所提供的网络结构还可以有多种变式,在本领域技术人员在没有做出创造性的劳动的前提下,通过上述方式更改网络得到的网络变式均同理包括在本发明的专利保护范围内。

Claims (7)

1.一种基于图形学和深度学习的单张条纹投影测量方法,其特征在于,具体步骤为:
步骤1:通过计算机图形学方法,构造虚拟的单相机、单投影仪的光栅三维条纹测量系统,在该虚拟测量系统中导入三维仿真实体模型,虚拟拍摄采集光栅三维条纹图,并将三维仿真实体模型映射到二维空间,生成深度图;最终建立大规模、高自由度的条纹图—深度图样本数据库;
步骤2:将样本数据库分为训练集、验证集和测试集,并进行翻转、旋转数据增强;
步骤3:构建像素级语义分割网络,将生成的条纹图样本作为输入,相应的深度图作为输出,训练神经网络模型,通过将条纹图映射到高维空间,实现像素级深度预测,并且保证输出结果与原始图片尺寸相同;
步骤4:所得训练神经网络模型在验证集和测试集进行测试,通过参数整定后获得较高精度和速度的神经网络模型;
步骤5:搭建实际的光栅三维条纹测量系统,并完成系统的整体标定,用训练的神经网络模型实现条纹图实时采集、实时测量深度模型并转化为点云的动态测量过程。
2.根据权利要求1所述的一种基于图形学和深度学习的单张条纹投影测量方法,其特征在于:所述步骤1基于图形学理论、使用图形学仿真软件方法构建大规模样本数据库,通过深度学习网络训练出单张条纹图到深度图的模型映射。
3.根据权利要求1所述的一种基于图形学和深度学习的单张条纹投影测量方法,其特征在于:仿真采集样本数据,通过改变虚拟系统的光照强度、物体尺寸、拍摄视角以及添加阴影、噪声真实感操作,最终生成不同条纹周期、符合实际的条纹,具体步骤为:
步骤1:导入三维仿真实体模型,使用ShapeNetCore数据库中的三维仿真实体模型,并按照比例调整相机视角和物体大小,使物体在所成像中上下左右各留有1/10空余,对应不同实际尺度大小的物体,均归一化到同一尺度下;
步骤2:光栅三维条纹投影,仅保留光传播过程中的衰减特性,使用随机噪声作为光传播噪声,保留Blender内置点扩散函数;保留物体阴影,使用大小为512*512的投影条纹,使条纹周期分别为20、25、30、35、40 纵向投影得到图片,在使用35像素条纹周期时使用光照强度范围的间隔5均匀采样共10张,拍摄物体的六个完整平面,因此针对一个物体的三维数据可以得到64张图片和对应深度图;
步骤3:数据存储,设计Python脚本自动渲染数据,得到的图像保存为二进制文件。
4.根据权利要求1所述的一种基于图形学和深度学习的单张条纹投影测量方法,其特征在于:所述步骤2 中,将构建的30000组样本数据库,其中22000组作为样本的训练集,4000组作为验证集,3000组作为测试集;预处理包括图像旋转、翻转;采用float16的二进制文件保存原始数据和深度数据,网络训练过程中将数据预加载到缓存中,保证训练效率和数据量。
5.根据权利要求1所述的一种基于图形学和深度学习的单张条纹投影测量方法,其特征在于:所述步骤3中,对称结构Unet,并采用同层之间跳跃连接增强网络的表达能力;使用512*512 原始图像输入,通过特征提取部分将图像映射到16*16的高维特征空间,之后通过对称的网络得到同样大小的输出;中间层使用Relu,最后一层使用Sigmoid,损失函数使用平均二次误差函数,学习率0.001,使用批正则化和学习率衰减来避免过拟合。
6.根据权利要求1所述的一种基于图形学和深度学习的单张条纹投影测量方法,其特征在于:所述步骤4中,将样本数据库随机分割为训练集、验证集和测试集三部分,训练集训练样本,通过SGD优化器更新网络参数,训练过程在图形处理单元GPU上实现,测试集结果作为网络训练最终结果。
7.根据权利要求1所述的一种基于图形学和深度学习的单张条纹投影测量方法,其特征在于:所述步骤5中,在实际空间中,搭建相机、投影仪的光栅三维条纹测量系统,并对系统采用光栅三维条纹投影系统通用的标定法进行标定,拍摄图像切割至512*512大小输入网络,结合标定数据将输出的深度图转化为三维点云,得到最终实际应用结果。
CN201911260063.XA 2019-12-10 2019-12-10 一种基于图形学和深度学习的单张条纹投影测量方法 Active CN111043988B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911260063.XA CN111043988B (zh) 2019-12-10 2019-12-10 一种基于图形学和深度学习的单张条纹投影测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911260063.XA CN111043988B (zh) 2019-12-10 2019-12-10 一种基于图形学和深度学习的单张条纹投影测量方法

Publications (2)

Publication Number Publication Date
CN111043988A CN111043988A (zh) 2020-04-21
CN111043988B true CN111043988B (zh) 2021-04-23

Family

ID=70235481

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911260063.XA Active CN111043988B (zh) 2019-12-10 2019-12-10 一种基于图形学和深度学习的单张条纹投影测量方法

Country Status (1)

Country Link
CN (1) CN111043988B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4204760A1 (en) * 2020-08-25 2023-07-05 Artec Europe S.a.r.l. Systems and methods of 3d object reconstruction using a neural network
CN112833818B (zh) * 2021-01-07 2022-11-15 南京理工大学智能计算成像研究院有限公司 一种单帧条纹投影三维面型测量方法
CN113358061B (zh) * 2021-05-31 2022-09-09 东南大学 端到端标定深度学习网络的单幅条纹三维点云测量方法
CN114066959B (zh) * 2021-11-25 2024-05-10 天津工业大学 基于Transformer的单幅条纹图深度估计方法
CN117011478B (zh) * 2023-10-07 2023-12-22 青岛科技大学 一种基于深度学习与条纹投影轮廓术的单张图像重建方法
CN117739861B (zh) * 2024-02-20 2024-05-14 青岛科技大学 一种基于深度学习的改进单模式自解相条纹投影三维测量方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7601978B2 (en) * 2002-04-11 2009-10-13 Hamed Sari-Sarraf Fabric wrinkle evaluation
CN107741207A (zh) * 2013-12-23 2018-02-27 科磊股份有限公司 多重图案化参数的测量
CN108898571A (zh) * 2018-03-27 2018-11-27 哈尔滨理工大学 一种基于结构光视觉与深度学习的v型焊缝检测系统
CN109253708A (zh) * 2018-09-29 2019-01-22 南京理工大学 一种基于深度学习的条纹投影时间相位展开方法
CN109506589A (zh) * 2018-12-25 2019-03-22 东南大学苏州医疗器械研究院 一种基于结构光场成像的三维轮廓测量方法
CN109945802A (zh) * 2018-10-11 2019-06-28 宁波深浅优视智能科技有限公司 一种结构光三维测量方法
US10339667B2 (en) * 2015-05-15 2019-07-02 Motion Metrics International Corp Method and apparatus for locating a wear part in an image of an operating implement
CN110147781A (zh) * 2019-05-29 2019-08-20 重庆交通大学 基于机器学习的桥梁振动模态可视化损伤识别方法
CN110260795A (zh) * 2019-05-31 2019-09-20 广东工业大学 一种基于增量绝对光栅尺的绝对位移检测方法
CN110425986A (zh) * 2019-07-17 2019-11-08 北京理工大学 基于单像素传感器的三维计算成像方法及装置
CN110472637A (zh) * 2019-07-29 2019-11-19 天津大学 深度学习变密度低质量电子散斑条纹方向提取方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI281126B (en) * 2002-03-19 2007-05-11 Intervideo Digital Technology Image detection method based on region
US20040267397A1 (en) * 2003-06-27 2004-12-30 Srinivas Doddi Optical metrology of structures formed on semiconductor wafer using machine learning systems
US9870613B2 (en) * 2014-11-05 2018-01-16 Carestream Health, Inc. Detection of tooth condition using reflectance images with red and green fluorescence
KR102628654B1 (ko) * 2016-11-07 2024-01-24 삼성전자주식회사 차선을 표시하는 방법 및 장치

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7601978B2 (en) * 2002-04-11 2009-10-13 Hamed Sari-Sarraf Fabric wrinkle evaluation
CN107741207A (zh) * 2013-12-23 2018-02-27 科磊股份有限公司 多重图案化参数的测量
US10339667B2 (en) * 2015-05-15 2019-07-02 Motion Metrics International Corp Method and apparatus for locating a wear part in an image of an operating implement
CN108898571A (zh) * 2018-03-27 2018-11-27 哈尔滨理工大学 一种基于结构光视觉与深度学习的v型焊缝检测系统
CN109253708A (zh) * 2018-09-29 2019-01-22 南京理工大学 一种基于深度学习的条纹投影时间相位展开方法
CN109945802A (zh) * 2018-10-11 2019-06-28 宁波深浅优视智能科技有限公司 一种结构光三维测量方法
CN109506589A (zh) * 2018-12-25 2019-03-22 东南大学苏州医疗器械研究院 一种基于结构光场成像的三维轮廓测量方法
CN110147781A (zh) * 2019-05-29 2019-08-20 重庆交通大学 基于机器学习的桥梁振动模态可视化损伤识别方法
CN110260795A (zh) * 2019-05-31 2019-09-20 广东工业大学 一种基于增量绝对光栅尺的绝对位移检测方法
CN110425986A (zh) * 2019-07-17 2019-11-08 北京理工大学 基于单像素传感器的三维计算成像方法及装置
CN110472637A (zh) * 2019-07-29 2019-11-19 天津大学 深度学习变密度低质量电子散斑条纹方向提取方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Deep neural networks for single shot structured light profilometry;Van der Jeught Sam等;《Optics express》;20190610;第27卷(第12期);17091-17101 *
基于单目视觉的深度测量与三维形貌重建;钱时锦;《中国优秀硕士学位论文全文数据库工程科技Ⅱ辑》;20190215(第2期);I138-1743 *
基于视觉的深度测量与三维形貌重建;刘虹丹;《中国优秀硕士学位论文全文数据库工程科技Ⅱ辑》;20180315(第3期);C033-242 *

Also Published As

Publication number Publication date
CN111043988A (zh) 2020-04-21

Similar Documents

Publication Publication Date Title
CN111043988B (zh) 一种基于图形学和深度学习的单张条纹投影测量方法
CN110111345B (zh) 一种基于注意力网络的3d点云分割方法
CN109978786B (zh) 一种基于卷积神经网络的Kinect深度图修复方法
CN106803267A (zh) 基于Kinect的室内场景三维重建方法
CN110346808B (zh) 一种激光雷达的点云数据处理方法和系统
CN110490917A (zh) 三维重建方法及装置
CN113159232A (zh) 一种三维目标分类、分割方法
CN112233249A (zh) 基于密集点云的b样条曲面拟合方法及装置
CN115601511B (zh) 三维重建方法、装置、计算机设备及计算机可读存储介质
CN106780546A (zh) 基于卷积神经网络的运动模糊编码点的身份识别方法
CN117274515A (zh) 基于ORB和NeRF映射的视觉SLAM方法及系统
CN113920255B (zh) 基于点云数据的高效测绘系统
Lyu et al. Structured light-based underwater 3-D reconstruction techniques: A comparative study
CN113628170B (zh) 一种基于深度学习的激光线提取方法及系统
CN117132737B (zh) 一种三维建筑模型构建方法、系统及设备
CN113160210A (zh) 基于深度相机的排水管道缺陷检测方法及装置
CN117011478A (zh) 一种基于深度学习与条纹投影轮廓术的单张图像重建方法
CN117422619A (zh) 图像重建模型的训练方法、图像重建方法、装置及设备
CN116381650A (zh) 一种激光雷达点云位置和强度仿真模拟及测试方法
CN110288701A (zh) 一种基于深度聚焦的三维重建方法及终端
CN115601423A (zh) 一种双目视觉场景下基于边缘增强的圆孔位姿测量方法
CN112002019B (zh) 一种基于mr混合现实的模拟人物阴影的方法
CN113593007A (zh) 一种基于变分自编码的单视图三维点云重建方法及系统
KR102648938B1 (ko) 기하학적 일관성을 이용한 소수 샷 신경 방사장 기반 3차원 이미지 재구성 방법 및 장치
Rezaei et al. sat2pc: Estimating point cloud of building roofs from 2d satellite images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant