CN117011478A - 一种基于深度学习与条纹投影轮廓术的单张图像重建方法 - Google Patents

一种基于深度学习与条纹投影轮廓术的单张图像重建方法 Download PDF

Info

Publication number
CN117011478A
CN117011478A CN202311285929.9A CN202311285929A CN117011478A CN 117011478 A CN117011478 A CN 117011478A CN 202311285929 A CN202311285929 A CN 202311285929A CN 117011478 A CN117011478 A CN 117011478A
Authority
CN
China
Prior art keywords
image
network model
stage network
phase
deep learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311285929.9A
Other languages
English (en)
Other versions
CN117011478B (zh
Inventor
张秋爽
李旭
杨智森
李红宾
杨化林
邢明义
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao University of Science and Technology
Original Assignee
Qingdao University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao University of Science and Technology filed Critical Qingdao University of Science and Technology
Priority to CN202311285929.9A priority Critical patent/CN117011478B/zh
Publication of CN117011478A publication Critical patent/CN117011478A/zh
Application granted granted Critical
Publication of CN117011478B publication Critical patent/CN117011478B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习与条纹投影轮廓术的单张图像重建方法,涉及图像处理技术领域。基于深度学习与条纹投影轮廓术的单张图像重建方法,包括:搭建条纹投影轮廓术系统的虚拟仿真系统,并对渲染后的条纹图像采用多频外差法进行重建构建训练数据集;提出两阶段的网络模型,先从单张条纹图像预测单频多张相移图像,将单频相移图像生成包裹相位图像,再从单频包裹相位图像预测条纹色阶,实现高精度的相位检索。本发明搭建了一个虚拟仿真系统,简化了复杂的数据采集过程;将虚拟仿真系统渲染的图像作为数据集,提出了一种基于深度学习和条纹投影轮廓术的单张图像重建方法,可以很好的得到绝对相位,有更高的三维重建精度。

Description

一种基于深度学习与条纹投影轮廓术的单张图像重建方法
技术领域
本发明涉及图像处理技术领域,具体涉及一种基于深度学习与条纹投影轮廓术的单张图像重建方法。
背景技术
条纹投影轮廓术(Fringe Projection Profilometry,FPP)是一种用于三维形状测量和表面轮廓重建的光学测量方法,其具有运算量小、鲁棒性强、测量点云稠密的特点被广泛应用在机器视觉、光学检测等领域。
简单的FPP系统一般由一个相机,一个投影仪和一台计算机组成,测量时投影仪向被测物体表面投射一系列条纹编码图案,条纹经被测物表面高度调制后发生变形,由相机捕获包含着相位信息的变形条纹图像,然后由计算机执行解码操作,对相位信息进行解码获取绝对相位信息,最后通过三角测量原理将相位信息映射到被测物体的真实三维坐标。
对于传统FPP技术在三维重建中的应用,发明人认为存在以下技术问题:传统的FPP技术通常至少需要使用两张或是多张条纹图像才能进行物体的三维重建,导致其重建方法实现过程复杂,逐渐不能满足实际生产和复杂场景的需要。
因此,如何解决上述技术问题,设计一种只需单张图像便可对待测物体进行高效、高精度的物体三维重建,是本领域的技术人员急需解决的技术问题。
公开于该背景技术部分的信息仅仅旨在增加对本发明的总体背景的理解,而不应当被视为承认或以任何形式暗示该信息构成已为本领域一般技术人员所公知的现有技术。
发明内容
针对上述技术问题,本发明实施例提供了一种基于深度学习与条纹投影轮廓术的单张图像重建方法,以解决上述背景技术中提出的问题。
本发明提供了以下技术方案:
一种基于深度学习与条纹投影轮廓术的单张图像重建方法,包括以下步骤:
获取待测物体的单张条纹图像;
搭建两阶段网络模型,其包括第一阶段网络模型和第二阶段网络模型;第一阶段网络模型采用U-Net神经网络模型;第二阶段网络模型采用U-Net神经网络模型,并在编码器结尾添加一个Dropout层(Dropout层是一种神经元随机失活方法);
将获取的待测物体的单张条纹图像输入至第一阶段网络模型,预测多张单频相移图像;
将从第一阶段网络模型获取的单频相移图像生成包裹相位图像;
将获取的包裹相位图像输入至第二阶段网络模型预测条纹色阶;
得到条纹色阶后将包裹相位展开成绝对相位,并结合标定参数与相-高映射关系,得到待测物体的深度图以及对应三维点云数据。
优选的,待测物体的单张条纹图像输入至两阶段网络模型之前,还包括:搭建条纹投影轮廓术系统的虚拟仿真系统,并在虚拟仿真系统中构建训练数据集;训练数据集中的样本对第一阶段网络模型、第二阶段网络模型进行训练学习。
优选的,所述训练数据集包括第一阶段网络模型所需的单张条纹图像和对应的多张同频相移图像,以及第二阶段网络模型所需的包裹相位图像和对应的条纹色阶图像。
优选的,所述虚拟仿真系统环境采用Blender建模软件创建,所述虚拟仿真系统环境包括建立一个虚拟相机和一个虚拟投影仪;其中,Blender又称为布局软件,是一款开源的三维图形图像软件,可以用于三维建模渲染和动画制作。
优选的,所述训练数据集的构建步骤包括:
从Thingi10K中选取多种三维仿真模型作为待测物体模型,其中,待测物体模型以8.5:1.5的比例随机分成训练集与测试集,确保训练集的待测物体模型在测试集中不可见;
将待测物体模型导入虚拟仿真系统中,并对待测物体模型的尺寸归一化到同一尺寸范围,确保待测物体模型处于虚拟仿真系统的视野中心;
对每个导入的待测物体模型进行多次随机姿态变换,以达到数据增强的目的;
虚拟投影仪将多张条纹图像依次投影在待测物体模型表面,并由虚拟相机中的Python接口进行渲染采集;
渲染后的条纹图像采用多频外差法进行相位重建,将相位重建后的相位图像作为训练数据集。
需要说明的是,Thingi10K是一种三维打印模型的数据集,其包含数万个模型数据,主要用于计算机视觉和计算机图形学研究。
优选的,所述将从第一阶段网络模型获取的单频相移图像生成包裹相位图像中,单频相移图像通过函数计算得到包裹相位图像;其中,其中,/>为像素光强;/>为相移步数/>。优选的,第一阶段网络模型、第二阶段网络模型的编码器均包含10个卷积核为3*3的卷积层和4个2*2的最大池化层;第一阶段网络模型、第二阶段网络模型的解码器均包含8个卷积核为3*3的卷积层和4个上采样层;
编码器的特征通道依次为32,64,128,256,512,解码器的特征通道依次为256,128,64,32;
第一阶段网络模型的解码器末端附加一层1*1卷积,特征通道数为4来输出四步相移图;第二阶段网络模型的解码器末端为一层1*1卷积用于预测色阶数值。
优选的,第一阶段网络模型、第二阶段网络模型中每个卷积层后均包含一个负值为0.1的非线性整流函数LeakyReLU;第一阶段网络模型中的损失函数采用回归损失函数均方误差,第二阶段网络模型的损失函数结合结构相似度与均方误差。
本发明实施例提供的一种基于深度学习与条纹投影轮廓术的单张图像重建方法,具有以下有益效果:
1.本发明在Blender中搭建了一个虚拟仿真系统,简化了复杂的数据采集过程;将虚拟仿真系统渲染的图像作为数据集,提出了一种基于深度学习和条纹投影轮廓术的单张图像重建方法,所提及的方法可以很好的得到绝对相位,相比较使用深度学习进行深度预测的方法具有更高的三维重建精度;
2.本发明设计的图像重建方法在实际应用中,仅需使用实际测量系统拍摄单张条纹图像,将其作为输入数据输入训练好的网络模型中,可直接获得对应的深度图和三维点云数据,重建方法实现过程简单,并可满足实际生产和复杂场景的需要。
附图说明
图1为本发明提供的一种基于深度学习与条纹投影轮廓术的单张图像重建方法流程示意图;
图2为本发明在Blender中的测量场景;
图3为本发明中两阶段网络模型框架结构示意图;
图4为本发明中第二阶段网络模型图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下,所获得的所有其它实施例,都属于本发明保护的范围。
针对上述背景技术提到的问题,本发明实施例提供了一种基于深度学习与条纹投影轮廓术的单张图像重建方法,以解决上述技术问题,其技术方案如下:
下面结合附图1-4,以及具体实施方式对本发明作进一步的说明。
本发明设计的原理
传统的FPP中,相位解算步骤是对相机采集到的条纹图像的灰度进行计算获取被测物表面各点的绝对相位,通常分为包裹相位计算和相位展开两个步骤;以三频四步相移方法为例,相机采集到的条纹图像案中各像素光强I(x,y)可表示为公式(1):
其中,为平均光强;/>为条纹调制度,/>为待求解的相位主值(测试对象的阶段),/>为相移步数/>N为条纹图像的周期数;由反正切函数得到包裹在区间/>内的相位值/>可表示为公式(2):
但根据包裹相位搜索匹配像点会产生歧义,因此需要将相位展开到绝对相位可由公式(3)实现:
为绝对相位,/>为条纹色阶;若想获得高精度的绝对相位,色阶信息至关重要;因此,本方法将色阶信息作为网络模型的最终预测输出。
本发明的具体实施方案
1.搭建条纹投影轮廓术系统的虚拟仿真系统,在虚拟仿真系统中构建训练数据集;
目前,对编码图案进行解码是FPP技术的核心点,传统的FPP相位解码算法中应用较广的是基于时间的相移测量轮廓术(Phase Shifting Profilometry,PSP),因PSP技术采用多幅有相位差的光栅条纹图像来计算相位值,展现出了良好的重建效果,但实际应用时仍然存在数据集采集以及生成复杂、抗噪声能力差和重建精度低等问题,难以应用到实际的三维测量中。
由上述可知,充足的训练数据是深度学习得到良好结果的保障,为了解决上述技术问题,本发明将搭建一个FPP的虚拟仿真系统。
虚拟对象从现有3D模型库Thingi10K中选取,系统环境选择开源的3D建模软件Blender,并使用其中的Python接口实现自动渲染;渲染后的图像采用传统三频四步相移法进行重建,构建训练数据集的同时检验虚拟仿真系统的有效性。
本实施例中,具体地,包括以下内容:
1)FPP的虚拟仿真系统搭建过程:首先需要在Blender中建立一个虚拟相机、一个虚拟投影仪,参考实际测量系统对虚拟相机和虚拟投影仪进行参数设置,具体参数设置如表1所示;
虚拟相机的类型选为透视,相机分辨率为1440×1080像素,光圈数为8,焦距为10mm,传感器尺寸为1/2.9英寸;虚拟投影仪的投影类型设置为图像纹理,图像分辨率为1280×720像素,光照强度为20W,并设置光线衰减和保留阴影遮蔽;
三个频率的条纹周期分别为13、14、15像素,每个频率分别对应四张具有0,相移增量的相移条纹图,因此需要投影的相移条纹图共计12张;参数设置好后进行相机与投影仪的标定,后续将结合标定参数和相-高映射关系进行待测物体的数据集制备和三维点云重建。
2)数据集的采集过程:首先从Thingi10K模型库中选取多种三维仿真模型作为待测物体模型,待测物体模型将以8.5:1.5的比例随机分成训练集与测试集,确保训练集的待测物体模型在测试集中不可见;
将选取的待测物体模型依次导入虚拟仿真系统中,对其进行尺寸与位置调整,将实际中不同尺寸大小的物体归一化到同一尺寸范围,确保待测物体模型处于虚拟仿真系统的视野中心;再对每个导入的待测物体模型进行多次随机姿态变换,以达到数据增强的目的;
每次姿态变换后,虚拟投影仪将12张相移条纹图像依次投影在待测物体模型表面,并由虚拟相机进行渲染采集。为确保图像采集的效率,待测物体模型的姿态变换和虚拟投影仪的投影借助Blender中的Python接口自动实现。
3)数据集的预处理过程:与实际测量系统相比,虚拟仿真系统中由于背景可直接设置,因此可以简化背景去除的步骤,仅需在三维重建前进行调制度阈值筛选;
随后根据传统的三频四步方法进行计算与三维重建,并将两阶段网络模型所需要的输入数据和标签数据制备成训练数据集,包括第一阶段网络所需的单张条纹图像及对应的多张同频相移图像,第二阶段网络所需的包裹相位图像和对应的条纹色阶图像;
为保证深度学习结果在不同光照强度下的泛化能力,在渲染采集过程中还额外增加一次光照强度的随机变换,将渲染结果作为第一阶段网络的训练数据集的补充。
表1 虚拟仿真系统的参数
参数 参数
相机分辨率 1440×1080 像素 光圈数 8
相机焦距 10mm 条纹周期 13、14、15 像素
投影仪分辨率 1280×720 像素 相移步数 4
投影仪光强 20 单个像素采样数 1024
表2 虚拟仿真系统的运行环境
操作系统 CPU RAM GPU
Windows 10 Intel(R) Xeno(R) Gold 5218R, 2.10GHz 128.0 GB NVIDIA GeForce RTX3090 (24.0GB)
2.一种基于深度学习与条纹投影轮廓术的单张图像重建方法,包括以下步骤:
获取待测物体的单张条纹图像;
搭建两阶段网络模型,其包括第一阶段网络模型和第二阶段网络模型;第一阶段网络模型采用U-Net神经网络模型;第二阶段网络模型采用U-Net神经网络模型,并在编码器结尾添加一个Dropout层;
将获取的待测物体的单张条纹图像输入至第一阶段网络模型,预测多张单频相移图像;
将从第一阶段网络模型获取的单频相移图像生成包裹相位图像;
将获取的包裹相位图像输入至第二阶段网络模型预测条纹色阶;
得到条纹色阶后将包裹相位展开成绝对相位,并结合标定参数与相-高映射关系,得到待测物体的深度图以及对应三维点云数据。
本实施例中,具体地,图2所示中两阶段网络模型的框架:
首先第一阶段网络模型(U-Net)用于进行条纹图像的转换,可将单张条纹图像转换为对应的四张同频率相移图,第一阶段的网络模型输出第一通道为原输入,第二至第四通道分别对应相移增量;
得到同频率相移图后便可根据函数计算包裹相位图像;
第二阶段的网络模型根据包裹相位来学习条纹色阶,与U-Net相比在编码器结尾添加了一个Dropout层对神经元进行随机失活,防止模型训练过程中过拟合;
得到条纹色阶后便可将包裹相位展开成绝对相位,再结合标定参数与相-高映射关系便可得到待测物体的深度图以及对应三维点云数据。
两个阶段的网络模型的编码器均包含10个卷积核为3*3的卷积层和4个2*2的最大池化层,每经过一次最大池化,特征图的分辨率减小一半,特征通道数增加一倍;对应的解码器包含8个卷积核为3*3的卷积层和4个上采样层;每次上采样后的卷积层包含一个跳跃连接操作,拼接编码器的输入特征;编码器的特征通道依次为32,64,128,256,512,解码器的特征通道依次为256,128,64,32;
对于第一阶段的解码器末端附加一层1*1卷积,特征通道数为4来输出四步相移图,第二阶段的解码器末端为一层1*1卷积用于预测色阶数值;每个卷积层后均包含一个负值为0.1的非线性整流函数LeakyReLU;
对于第一阶段的损失函数采用常用的回归损失函数均方误差(MSE),第二阶段的损失函数结合结构相似度(SSIM)与均方误差(MSE)。
3.实验及结果
1)网络运行及训练:本实施例中,将训练数据集按照训练、验证与测试分为1200、150和150组图像,网络训练在戴尔塔式工作站Precision 7920上进行,具体配置如表2所示;
训练基于Pytorch深度学习框架进行,采用的mini-batch size(训练子集的批大小)大小为2,训练200轮次;反向传播过程中使用Adam优化器(其中,Adam是一种随机优化算法)来优化网络参数,学习率初始设置为0.0002,并根据验证集结果进行衰减调整策略;
对于训练过程中的过拟合问题,采用对训练数据进行数据增强、L2正则化、提前终止训练等策略来防止过拟合。
2)三维重建结果:
根据三维重建结果,发现本发明所设计的两阶段网络模型可以实现单张条纹图像预测复杂表面的绝对相位;根据第一阶段网络模型预测的包裹相位进一步预测色阶,最终获得的绝对相位与使用深度学习进行深度预测的方法相比更可靠;虽然最终物体重建后的表面存在一些波纹现象,但是总体重建质量与参考真值相差不大。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。

Claims (8)

1.一种基于深度学习与条纹投影轮廓术的单张图像重建方法,其特征在于,包括以下步骤:
获取待测物体的单张条纹图像;
搭建两阶段网络模型,其包括第一阶段网络模型和第二阶段网络模型;第一阶段网络模型采用U-Net神经网络模型;第二阶段网络模型采用U-Net神经网络模型,并在编码器结尾添加一个Dropout层;
将获取的待测物体的单张条纹图像输入至第一阶段网络模型,预测多张单频相移图像;
将从第一阶段网络模型获取的单频相移图像生成包裹相位图像;
将获取的包裹相位图像输入至第二阶段网络模型预测条纹色阶;
得到条纹色阶后将包裹相位展开成绝对相位,并结合标定参数与相-高映射关系,得到待测物体的深度图以及对应三维点云数据。
2.根据权利要求1所述的基于深度学习与条纹投影轮廓术的单张图像重建方法,其特征在于,待测物体的单张条纹图像输入至两阶段网络模型之前,还包括:搭建条纹投影轮廓术系统的虚拟仿真系统,并在虚拟仿真系统中构建训练数据集;训练数据集中的样本对第一阶段网络模型、第二阶段网络模型进行训练学习。
3.根据权利要求2所述的基于深度学习与条纹投影轮廓术的单张图像重建方法,其特征在于,所述训练数据集包括第一阶段网络模型所需的单张条纹图像和对应的多张同频相移图像,以及第二阶段网络模型所需的包裹相位图像和对应的条纹色阶图像。
4.根据权利要求2所述的基于深度学习与条纹投影轮廓术的单张图像重建方法,其特征在于,所述虚拟仿真系统环境采用Blender建模软件创建,所述虚拟仿真系统环境包括建立一个虚拟相机和一个虚拟投影仪。
5.根据权利要求2所述的基于深度学习与条纹投影轮廓术的单张图像重建方法,其特征在于,所述训练数据集的构建步骤包括:
从Thingi10K中选取多种三维仿真模型作为待测物体模型,其中,待测物体模型以8.5:1.5的比例随机分成训练集与测试集,确保训练集的待测物体模型在测试集中不可见;
将待测物体模型导入虚拟仿真系统中,并对待测物体模型的尺寸归一化到同一尺寸范围,确保待测物体模型处于虚拟仿真系统的视野中心;
对每个导入的待测物体模型进行多次随机姿态变换,以达到数据增强的目的;
虚拟投影仪将多张条纹图像依次投影在待测物体模型表面,并由虚拟相机中的Python接口进行渲染采集;
渲染后的条纹图像采用多频外差法进行相位重建,将相位重建后的相位图像作为训练数据集。
6.根据权利要求1所述的基于深度学习与条纹投影轮廓术的单张图像重建方法,其特征在于,所述将从第一阶段网络模型获取的单频相移图像生成包裹相位图像中,单频相移图像通过函数计算得到包裹相位图像;其中,其中,I(x,y)为像素光强;/>为相移步数(/>)。
7.根据权利要求1所述的基于深度学习与条纹投影轮廓术的单张图像重建方法,其特征在于,第一阶段网络模型、第二阶段网络模型的编码器均包含10个卷积核为3*3的卷积层和4个2*2的最大池化层;第一阶段网络模型、第二阶段网络模型的解码器均包含8个卷积核为3*3的卷积层和4个上采样层;
每层上采样后的卷积层包含一个跳跃连接,拼接对应编码器的输入特征;
编码器的特征通道依次为32,64,128,256,512,解码器的特征通道依次为256,128,64,32;
第一阶段网络模型的解码器末端附加一层1*1卷积,特征通道数为4来输出四步相移图;第二阶段网络模型的解码器末端为一层1*1卷积用于预测色阶数值。
8.根据权利要求6所述的基于深度学习与条纹投影轮廓术的单张图像重建方法,其特征在于,第一阶段网络模型、第二阶段网络模型中每个卷积层后均包含一个负值为0.1的非线性整流函数LeakyReLU;第一阶段网络模型中的损失函数采用回归损失函数均方误差,第二阶段网络模型的损失函数结合结构相似度与均方误差。
CN202311285929.9A 2023-10-07 2023-10-07 一种基于深度学习与条纹投影轮廓术的单张图像重建方法 Active CN117011478B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311285929.9A CN117011478B (zh) 2023-10-07 2023-10-07 一种基于深度学习与条纹投影轮廓术的单张图像重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311285929.9A CN117011478B (zh) 2023-10-07 2023-10-07 一种基于深度学习与条纹投影轮廓术的单张图像重建方法

Publications (2)

Publication Number Publication Date
CN117011478A true CN117011478A (zh) 2023-11-07
CN117011478B CN117011478B (zh) 2023-12-22

Family

ID=88573070

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311285929.9A Active CN117011478B (zh) 2023-10-07 2023-10-07 一种基于深度学习与条纹投影轮廓术的单张图像重建方法

Country Status (1)

Country Link
CN (1) CN117011478B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117739861A (zh) * 2024-02-20 2024-03-22 青岛科技大学 一种基于深度学习的改进单模式自解相条纹投影三维测量方法
CN117934925A (zh) * 2024-01-06 2024-04-26 山西众博自控设备有限公司 基于端到端学习的双频条纹散装物料体积获取系统

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111043988A (zh) * 2019-12-10 2020-04-21 东南大学 一种基于图形学和深度学习的单张条纹投影测量方法
WO2021051050A1 (en) * 2019-09-12 2021-03-18 Schlumberger Technology Corporation Generating geological facies models with fidelity to the diversity and statistics of training images using improved generative adversarial networks
CN113256800A (zh) * 2021-06-10 2021-08-13 南京理工大学 基于深度学习的精确快速大景深三维重建方法
WO2021184686A1 (zh) * 2020-03-20 2021-09-23 南京理工大学 基于多尺度生成对抗神经网络的单帧条纹分析方法
WO2021184707A1 (zh) * 2020-03-19 2021-09-23 南京理工大学 基于深度学习的单帧彩色条纹投影的三维面型测量方法
US20220026920A1 (en) * 2020-06-10 2022-01-27 AI Incorporated Light weight and real time slam for robots
US20220066456A1 (en) * 2016-02-29 2022-03-03 AI Incorporated Obstacle recognition method for autonomous robots
US20220187841A1 (en) * 2020-12-10 2022-06-16 AI Incorporated Method of lightweight simultaneous localization and mapping performed on a real-time computing and battery operated wheeled device
CN114777677A (zh) * 2022-03-09 2022-07-22 南京理工大学 基于深度学习的单帧双频复用条纹投影三维面型测量方法
CN115205360A (zh) * 2022-08-04 2022-10-18 无锡维度机器视觉产业技术研究院有限公司 复合条纹投影钢管的三维外轮廓在线测量与缺陷检测方法及应用
CN116385520A (zh) * 2023-04-04 2023-07-04 西安交通大学 融合全光源图像的磨损表面形貌光度立体重建方法及系统

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220066456A1 (en) * 2016-02-29 2022-03-03 AI Incorporated Obstacle recognition method for autonomous robots
WO2021051050A1 (en) * 2019-09-12 2021-03-18 Schlumberger Technology Corporation Generating geological facies models with fidelity to the diversity and statistics of training images using improved generative adversarial networks
CN111043988A (zh) * 2019-12-10 2020-04-21 东南大学 一种基于图形学和深度学习的单张条纹投影测量方法
WO2021184707A1 (zh) * 2020-03-19 2021-09-23 南京理工大学 基于深度学习的单帧彩色条纹投影的三维面型测量方法
WO2021184686A1 (zh) * 2020-03-20 2021-09-23 南京理工大学 基于多尺度生成对抗神经网络的单帧条纹分析方法
US20220026920A1 (en) * 2020-06-10 2022-01-27 AI Incorporated Light weight and real time slam for robots
US20220187841A1 (en) * 2020-12-10 2022-06-16 AI Incorporated Method of lightweight simultaneous localization and mapping performed on a real-time computing and battery operated wheeled device
CN113256800A (zh) * 2021-06-10 2021-08-13 南京理工大学 基于深度学习的精确快速大景深三维重建方法
CN114777677A (zh) * 2022-03-09 2022-07-22 南京理工大学 基于深度学习的单帧双频复用条纹投影三维面型测量方法
CN115205360A (zh) * 2022-08-04 2022-10-18 无锡维度机器视觉产业技术研究院有限公司 复合条纹投影钢管的三维外轮廓在线测量与缺陷检测方法及应用
CN116385520A (zh) * 2023-04-04 2023-07-04 西安交通大学 融合全光源图像的磨损表面形貌光度立体重建方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
章毓晋;: "中国图像工程:2009", 中国图象图形学报, no. 05 *
陈加;张玉麒;宋鹏;魏艳涛;王煜;: "深度学习在基于单幅图像的物体三维重建中的应用", 自动化学报, no. 04 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117934925A (zh) * 2024-01-06 2024-04-26 山西众博自控设备有限公司 基于端到端学习的双频条纹散装物料体积获取系统
CN117739861A (zh) * 2024-02-20 2024-03-22 青岛科技大学 一种基于深度学习的改进单模式自解相条纹投影三维测量方法
CN117739861B (zh) * 2024-02-20 2024-05-14 青岛科技大学 一种基于深度学习的改进单模式自解相条纹投影三维测量方法

Also Published As

Publication number Publication date
CN117011478B (zh) 2023-12-22

Similar Documents

Publication Publication Date Title
CN117011478B (zh) 一种基于深度学习与条纹投影轮廓术的单张图像重建方法
Livny et al. Automatic reconstruction of tree skeletal structures from point clouds
US8223148B1 (en) Method and apparatus for computing indirect lighting for global illumination rendering in 3-D computer graphics
CN111043988B (zh) 一种基于图形学和深度学习的单张条纹投影测量方法
US20200057831A1 (en) Real-time generation of synthetic data from multi-shot structured light sensors for three-dimensional object pose estimation
CN109945802B (zh) 一种结构光三维测量方法
CN110163817A (zh) 一种基于全卷积神经网络的相位主值提取方法
CN111461295B (zh) 基于多尺度生成对抗神经网络的单帧条纹分析方法
CN114581577A (zh) 物体材质微表面模型重构方法及系统
Xi et al. The meta-defect-detection system for gear pitting based on digital twin
Kim et al. Procedural modeling and visualization of multiple leaves
Song et al. Super-resolution phase retrieval network for single-pattern structured light 3D imaging
CN115187649B (zh) 抗强环境光干扰的三维测量方法、系统、设备及存储介质
CN117132704A (zh) 一种动态结构光的三维重建方法及其系统、计算设备
Fu et al. Single-shot colored speckle pattern for high accuracy depth sensing
CN116385520A (zh) 融合全光源图像的磨损表面形貌光度立体重建方法及系统
CN112330814B (zh) 一种基于机器学习的结构光三维重建方法
CN114638875A (zh) 基于区域均匀度的立体匹配优化方法、装置、设备及介质
Diaz et al. Estimating photometric properties from image collections
TWI712002B (zh) 三維人臉重建方法
CN117739861B (zh) 一种基于深度学习的改进单模式自解相条纹投影三维测量方法
CN113011107A (zh) 基于深度卷积神经网络的一维光纤传感信号相位恢复方法
Sitnik et al. Processing paths from integrating multimodal 3D measurement of shape, color and BRDF
Li et al. Dual-frequency phase unwrapping based on deep learning driven by simulation dataset
CN115775302B (zh) 一种基于Transformer的高反光物体三维重建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant