CN109215117A - 基于ORB与U-net的花卉三维重建方法 - Google Patents
基于ORB与U-net的花卉三维重建方法 Download PDFInfo
- Publication number
- CN109215117A CN109215117A CN201811060265.5A CN201811060265A CN109215117A CN 109215117 A CN109215117 A CN 109215117A CN 201811060265 A CN201811060265 A CN 201811060265A CN 109215117 A CN109215117 A CN 109215117A
- Authority
- CN
- China
- Prior art keywords
- frame
- orb
- flowers
- model
- net
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提出一种基于ORB与U‑net的花卉三维重建方法,包括基于ORB的深度相机三维重建及基于u‑net的三维重建补全,三维重建部分在kinectfusion的基础上加入了全局姿态优化以及回环检测和重定位,使得相机姿态估计的准确度大大提高,能够得到质量很高的花卉三维重建的部分模型;三维重建补全部分由于花卉类物体的三维数据集较小因而采用U‑net网络结构的CNN网络,可以在拥有较小数据集的情况下获得较好的效果。通过深度学习的方法可以很好的填充在传统稠密slam方法中存在大量空洞的问题,在填补空洞的网络实现了端到端的补全方法,能够大量节约补全空洞的时间。
Description
技术领域
本发明涉及三维重建技术,具体涉及花卉三维重建方法。
背景技术
目前三维重建技术过程中,针对小场景物体的三维重建主要是基于kinectfusion的稠密slam技术,通过利用kinect等深度相机围绕场景物体采集深度图像,进而针对深度图像进行处理从而得到小场景物体的三维重建模型。Kinectfusion的技术流程如下:首先使用kinect相机围绕小场景物体采集深度图像,利用kinect相机内参将原始的2D深度图像转化为相机坐标系下的3D点云并计算法向量;利用ICP迭代极小化点到平面的能量函数求出当前帧的相机位姿;根据相机的当前姿态将3D点云融合到TSDF体素模型当中;根据光线投影算法从TSDF模型中得出当前视角所能看到的场景表面,并得出投影得到的点云以及法向量,利用投影得到的点云与法向量与后一帧的数据进行icp迭代计算下一帧的位姿。
当前的三维重建方法,对于花卉类遮挡严重的物体扫描,由于kinect相机采用的TOF或者结构光技术,导致被遮挡的部分没有深度数据而无法重建。在实践中,确保扫描能够覆盖花卉表面所有的点也是不可行的(花卉类物体经常摆放在墙角且花卉底部无法扫描),因而会导致利用现有的三维重建方法,花卉类物体的重建模型出现大量空洞。同时由于kinectfusion方法只是当前帧与上一帧之间的配准进行姿态估计,没有全局位姿优化以及回环检测和回环闭合,使得三维重建时针对于深度图的位姿估计十分不准确,与此同时针对于相机本身的快速移动鲁棒性很低,只能进行缓慢移动建模,容易丢失相机位姿。
发明内容
针对当前花卉重建的模型出现空洞的缺陷,本发明提出一种基于ORB与U-net的花卉三维重建方法。
本发明是采用以下的技术方案实现的:一种基于ORB与U-net的花卉三维重建方法,包括:
A、基于ORB的深度相机三维重建:
A1、跟踪线程Track:利用提取ORB算子进行帧与帧之间的粗匹配,计算位姿;
A2、帧集合内部局部优化线程localmap:在帧集合内部利用Bundle Adjustment进行位姿优化;
A3、帧集合间全局优化线程globalmap:对每个帧集合求出共视度最高的一帧作为关键帧,送入全局的关键帧集合检测是否出现回环以及进行全局的BA位姿优化;
A4、重定位:将追踪失败的帧利用字典得到自己的词袋向量,然后与所有的关键帧计算相似度得分,找到得分最高且超过阈值的关键帧K即认为重定位成功;
B、基于u-net的三维重建补全:
B1、获得训练集和测试集的作为网络输入的部分TSDF模型;
B2、生成花卉的部分三维模型:利用步骤A中的三维重建方法对现实中的花卉进行扫描的部分建模,并将最终生成部分TSDF模型导出;
B3、模型补全阶段:利用卷积神经网络(CNN)中的u-net网络结构训练出补全模型的深度学习网络,将前一步骤生成的部分TSDF模型导入网络得到补全后完整的TSDF模型;
B4、最终模型生成阶段:将补全后的TSDF模型转化为obj模型导出得到最终的花卉三维重建模型。
进一步地,所述步骤A1包括:
A11、对于深度相机读取的每一帧深度图提取ORB特征描述子,记录下ORB特征的像素坐标以及ORB特征的描述子;
A12、若当前帧为第一帧,则初始化三维重建系统,并将第一帧定为世界坐标系,否则将当前帧与前一帧的ORB特征进行匹配,计算当前帧到前一帧的相机姿态变换T,在求解T之前统计当前帧与前一帧的ORB匹配对有多少,若匹配对太少则跟踪失败,进入重定位流程;
A13、将每一个跟踪到的帧融合进TSDF模型中。
进一步地,所述步骤A2包括:
A21、将一个帧集合内部的所有帧的ORB特征根据跟踪线程Track中得到的相机姿态投影到世界坐标系中;
A22、将帧集合中的所有ORB特征根据空间位置以及描述子进行融合,并将融合后的mappoint与各个帧中的图像坐标系ORB坐标匹配起来,优化帧集合内部的mappoint以及帧集合内各个帧的位姿,将优化后的各个帧首先根据跟踪线程Track的位姿估计从TSDF模型中去除,然后得到的相机位姿将各个帧再重新融入到TSDF模型中;
A23、统计得到各个帧中与其他帧共视最多的帧作为关键帧,将该帧送入帧集合间全局优化线程globalmap。
进一步地,所述步骤A3中回环检测为:系统首先导入一个ORB算子的字典,每个送来的关键帧根据字典得到自己的词袋向量,每个关键帧都与非自己前一关键帧的所有关键帧的词袋向量计算分数表达两帧相似度,当相似度超过阈值时则认为出现了回环;检测到回环则需要进行回环闭合,将当前关键帧向检测到回环的帧利用ORB特征进行匹配,优化当前关键帧帧世界坐标系下的mappoint在检测到回环的帧上的重投影误差来优化当前帧的pose以及当前帧ORB特征的世界坐标系位置,然后将优化后的当前帧的mappoint与检测到回环的帧的mappoint在世界坐标系下进行融合。
进一步地,所述步骤A4包括:将当前帧的ORB特征与关键帧K的ORB特征进行匹配,然后利用EPnP将K在世界坐标系下的ORB特征与当前帧图像坐标系下的像素坐标的匹配对进行求解得到位姿,然后将关键帧K作为帧集合的第一帧,重定位成功并继续回到追踪线程开始三维重建。
进一步地,根据步骤A22中localmap中的mappoint与各个帧图像的匹配关系,统计得到各个帧中与其他帧共视最多的帧作为关键帧。
进一步地,所述步骤B1中利用在maya下的大量三维花卉模型生成训练集和测试集groundtruth的TSDF模型,通过模拟出一条深度相机扫描的相机轨迹,得到训练集和测试集的作为网络输入的部分TSDF模型。
所述步骤B4中,利用matlab中的isosurface函数将TSDF模型转化为obj模型。
与现有技术相比,本发明的优点和积极效果在于:
本发明采用了深度学习与传统稠密slam相结合的方法来实现针对于花卉类遮挡严重的物体三维重建困难的问题,一方面,在kinectfusion的基础上加入了全局姿态优化以及回环检测和重定位,使得相机姿态估计的准确度大大提高,能够得到质量很高的花卉三维重建的部分模型;另一方面,由于花卉类物体的三维数据集较小因而采用U-net网络结构的CNN网络,可以在拥有较小数据集的情况下获得较好的效果。通过深度学习的方法可以很好的填充在传统稠密slam方法中存在大量空洞的问题,在填补空洞的网络实现了端到端的补全方法,能够大量节约补全空洞的时间。
附图说明
图1为本发明总体流程图;
图2为本发明实施例TSDF网络模型。
具体实施方式
本发明利用了U-net卷积神经网络,针对于深度相机扫描得到的TSDF体素模型数据训练,通过对TSDF体素数据的补全来完成对于三维模型的补全,创新性的将U-net网络与三维重建结合起来用来解决针对于遮挡严重的花卉三维重建问题,由于关于花卉类的三维数据集数据量较少,而U-net在针对于较小的训练数据集时能显现出很大的优势。在训练时所用的数据集来自于maya中建模好的大量花卉模型即groundtruth,通过模拟相机的扫描轨迹可以得到花卉模型的部分TSDF数据作为网络的输入。同时在深度相机三维重建部分,在kinectfusion的基础上加入了全局位姿优化以及回环检测和回环闭合,并且针对于移动的鲁棒性问题提出了重定位的解决方案。
下面结合附图和具体实施方式对本发明做进一步详细地说明。
一种基于ORB与U-net的花卉三维重建方法,参考图1,包括:
一、基于ORB的深度相机三维重建:
A.跟踪线程Track:
1.对于深度相机读取的每一帧深度图提取ORB特征描述子,记录下ORB特征的像素坐标以及ORB特征的描述子。
2.若当前帧为第一帧,则初始化三维重建系统,并将第一帧定为世界坐标系。否则将当前帧与前一帧的ORB特征进行匹配,计算当前帧到前一帧的相机姿态变换T,这个过程需要将当前帧的初始姿态设置为前一帧姿态,然后将当前帧的ORB特征变换到前一帧的图像坐标系得到投影误差,利用高斯-牛顿法最小化投影误差迭代优化位姿即可得到T。
在求解T之前需要统计当前帧与前一帧的ORB匹配对有多少,若匹配对太少则跟踪失败,进入重定位流程。
3.利用kinectfusion中的TSDF模型以及raycast光线投影算法将每一个跟踪到的帧融合进TSDF模型中。
W′(v)=W(v)+wi(v).其中:
D’(v):融合后的TSDF值;
D(v):融合前的TSDF值;
di(v):要融入的TSDF值;
W(v):原有的TSDF D(v)权重;
wi(v):要融入的TSDF di(v)的权重,为1;
W’(v):融合后D’(v)的权重。
本发明利用提取ORB算子进行帧与帧之间的粗匹配,相对于SIFT算子而言ORB算子计算速度非常快,针对于实时三维重建中对计算速度的要求十分适合。
B.帧集合内部局部优化线程localmap:
将一个帧集合内部的所有帧的ORB特征根据跟踪线程Track中得到的相机姿态投影到世界坐标系中。
5.将帧集合中的所有ORB特征根据空间位置以及描述子进行融合得到mappoint,并将融合后的mappoint与各个帧中的图像坐标系ORB坐标匹配起来,通过bundleadjustment优化帧集合内部的mappoint以及帧集合内各个帧的位姿。将优化后的各个帧首先根据跟踪线程Track的位姿估计从TSDF模型中去除:
W′(v)=W(v)-wi(v),其中:
D’(v):去除后的TSDF值;
D(v):去除前的TSDF值;
di(v):要去除的TSDF值;
W(v):原有的TSDF D(v)权重;
wi(v):要去除的TSDF di(v)的权重,为1;
W’(v):去除后D’(v)的权重。
然后根据帧集合内部局部优化线程localmap中BA后得到的相机位姿将各个帧再重新融入到TSDF模型中,将原来姿态的TSDF去除然后把优化后姿态的TSDF融入即为更新TSDF模型。
6.根据5中localmap中的mappoint与各个帧图像的匹配关系,每15帧组成一个帧集合,统计得到各个帧中与其他帧共视最多的帧作为关键帧,将该帧送入帧集合间全局优化线程globalmap。
C.帧集合间全局优化线程globalmap:
7.对于帧集合内部局部优化线程localmap送来的关键帧,将关键帧中的mappoint投影到世界坐标系中,并与整个关键帧集合的mappoint进行融合,然后根据融合后的mappoint与当前关键帧图像坐标系下ORB特征进行匹配,之后通过bundle adjustment最小化重投影误差,优化该关键帧的位姿以及世界坐标系下的该帧mappoint的位置,然后根据该关键帧所在的帧集合中其他的帧与该帧的位姿变换,将该关键帧所在的帧集合中所有的帧对TSDF模型进行去除与再融合操作。
8.在进行全局优化之前,需要先将帧集合内部局部优化线程送来的关键帧进行回环检测,若检测到回环则需要进行回环闭合。对于回环检测,系统首先导入一个ORB算子的字典,每个送来的关键帧根据字典得到自己的词袋向量,每个关键帧都与非自己前一关键帧的所有关键帧的词袋向量计算分数表达两帧相似度,当相似度超过阈值时则认为出现了回环。将当前关键帧向检测到回环的帧利用ORB特征进行匹配,并利用bundle adjustment优化当前关键帧帧世界坐标系下的mappoint在检测到回环的帧上的重投影误差来优化当前帧的pose以及当前帧ORB特征的世界坐标系位置。然后将优化后的当前帧的mappoint与检测到回环的帧的mappoint在世界坐标系下进行融合。然后将该优化后的关键帧pose根据其他帧与该帧的相机姿态变换传播给属于本关键帧所在的帧集合中的其他帧,当前关键帧前一个帧集合中的帧,检测到回环匹配的帧的帧集合以及其相邻的另外两个帧集合。然后进行全部所有关键帧和mappoint的全局bundle adjustment优化所有关键帧位姿以及mappoint,并将其传播给各个关键帧的帧集合,将所有帧对TSDF模型进行去除与再融合操作。
针对于传统的kinectfusion类三维重建方法本发明提出了一种新的完整的位姿优化、回环检测以及回环闭合的流程,在对于相机移动较快情况下的建模有了很好的适应。整个位姿优化、回环检测以及回环闭合的流程申请人的主要创新,通过提取关键帧利用关键帧代表15帧进行优化可以避免掉大量的帧优化计算,同时方便进行回环检测。通过局部以及全局的位姿优化使得针对于仅仅只有帧与帧匹配的位姿计算方法精确度有了很大提高,避免了三维重建中常见的重影等问题。
D.重定位:
9.当进行ORB特征匹配时,若匹配对太少则会认为是追踪失败因此进入重定位。将追踪失败的帧利用字典得到自己的词袋向量,然后与所有的关键帧计算相似度得分,找到得分最高且超过阈值的关键帧K即认为重定位成功。将当前帧的ORB特征与关键帧K的ORB特征进行匹配,然后利用EPnP将K在世界坐标系下的ORB特征与当前帧图像坐标系下的像素坐标的匹配对进行求解得到位姿。然后将关键帧K作为帧集合的第一帧,重定位成功并继续回到追踪线程开始三维重建。
二、基于u-net的三维重建补全:
1.首先利用在maya下的大量三维花卉模型生成训练集和测试集groundtruth的TSDF模型,通过模拟出一条深度相机扫描的相机轨迹,得到训练集和测试集的作为网络输入的部分TSDF模型。
2.生成花卉的部分三维模型:利用上文中的三维重建方法对现实中的花卉进行扫描的部分建模,并将最终生成模型的TSDF模型导出,由于花卉类的物体遮挡严重以及kinect相机自身的限制,此时的TSDF模型为花卉的部分模型
3.模型补全阶段:利用卷积神经网络(CNN)中的u-net网络结构训练出补全模型的深度学习网络,将前一步骤生成的部分TSDF模型导入网络得到补全后完整的TSDF模型。网络模型参考图2,在训练网络时,输入的为32^3大小的TSDF模型,两个通道分别存储TSDF的数值以及当前位置是否为空洞的标记,网络第一层为卷积层,卷积核为4^3,卷积步长为2,输出通道数为80,激活函数为leakyReLU;网络第二层为卷积层,卷积核为4^3,卷积步长为2,输出通道数为160,经过batchnormalization后用leakyReLU函数激活;网络第三层为卷积层,参数与第二层相同,输出通道数为320;网络第四层为卷积层,卷积核为4^3,卷积步长为1,输出通道数为640,经过batchnormalization后用leakyReLU函数激活;第五层是全连接层,输入输出节点都是640,激活函数为ReLU;第六层也是全连接层参数与第五层相同,然后rehsape为640*1^3;第七层为反卷积层,输入为第六层的输出与第四层输出在通道维度上进行合并(即U-net结构),因而输入为1280*1^3,反卷积核为4^3,步长为1,输出通道为320,经过batchnormalization后用ReLU函数激活;第八层为反卷积层,输入为第七层输出与第三层输出在通道维度上合并,因而输入为640*4^3,反卷积核为4^3,步长为2,输出通道为160,经过batchnormalization后用ReLU函数激活;第九层为反卷积层,输入为第八层输出与第二层输出在通道维度上合并,因而输入为320*4^3,反卷积核为4^3,步长为2,输出通道为80,经过batchnormalization后用ReLU函数激活;第十层为反卷积层,输入为第九层输出与第一层输出在通道维度上合并,反卷积核为4^3,步长为2,输出通道为1。
Groundtruth为32^3,单通道记录的为每个位置的真实TSDF的值。在计算loss的时候,只计算空洞位置的网络输出结果与Groundtruth该位置的L1 loss,这一步需要利用输入中第二通道所记录空洞位置标记来对网络输出结果以及Groundtruth进行筛选。
利用Adam算法进行反向传播。
4.最终模型生成阶段:利用matlab中的isosurface函数将上一步中补全后的TSDF模型转化为obj模型导出得到最终的花卉三维重建模型。
U-net网络主要是针对于二维图像的分割任务,本发明将其引入到三维重建完成后的补全任务。由于U-net网络有先卷积再反卷积的编码解码过程,针对于三维的TSDF体素网格可以最终预测出针对于每个体素的值,很适合补全任务。U-net网络的另一个优势在于针对于数据集很小的任务也可以有出色的表现,三维花卉数据集很少,针对于这样的任务U-net网络十分契合。据此选择将U-net网络加入到三维重建的后端处理。通过U-net网络的深度学习方法补充上三维重建方法中的空洞,首次将两者结合起来从而实现一套完整的建模整个完整花卉模型的流程。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作其它形式的限制,任何熟悉本专业的技术人员可能利用上述揭示的技术内容加以变更或改型为等同变化的等效实施例应用于其它领域,但是凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与改型,仍属于本发明技术方案的保护范围。
Claims (8)
1.一种基于ORB与U-net的花卉三维重建方法,其特征在于,包括:
A、基于ORB的深度相机三维重建:
A1、跟踪线程Track:利用提取ORB算子进行帧与帧之间的粗匹配,计算位姿;
A2、帧集合内部局部优化线程localmap:在帧集合内部利用Bundle Adjustment进行位姿优化;
A3、帧集合间全局优化线程globalmap:对每个帧集合求出共视度最高的一帧作为关键帧,送入全局的关键帧集合检测是否出现回环以及进行全局的BA位姿优化;
A4、重定位:将追踪失败的帧利用字典得到自己的词袋向量,然后与所有的关键帧计算相似度得分,找到得分最高且超过阈值的关键帧K即认为重定位成功;
B、基于u-net的三维重建补全:
B1、获得训练集和测试集的作为网络输入的部分TSDF模型;
B2、生成花卉的部分三维模型:利用步骤A中的三维重建方法对现实中的花卉进行扫描的部分建模,并将最终生成部分TSDF模型导出;
B3、模型补全阶段:利用卷积神经网络(CNN)中的u-net网络结构训练出补全模型的深度学习网络,将前一步骤生成的部分TSDF模型导入网络得到补全后完整的TSDF模型;
B4、最终模型生成阶段:将补全后的TSDF模型转化为obj模型导出得到最终的花卉三维重建模型。
2.根据权利要求1所述的基于ORB与U-net的花卉三维重建方法,其特征在于:所述步骤A1包括:
A11、对于深度相机读取的每一帧深度图提取ORB特征描述子,记录下ORB特征的像素坐标以及ORB特征的描述子;
A12、若当前帧为第一帧,则初始化三维重建系统,并将第一帧定为世界坐标系,否则将当前帧与前一帧的ORB特征进行匹配,计算当前帧到前一帧的相机姿态变换T,在求解T之前统计当前帧与前一帧的ORB匹配对有多少,若匹配对太少则跟踪失败,进入重定位流程;
A13、将每一个跟踪到的帧融合进TSDF模型中。
3.根据权利要求1所述的基于ORB与U-net的花卉三维重建方法,其特征在于:所述步骤A2包括:
A21、将一个帧集合内部的所有帧的ORB特征根据跟踪线程Track中得到的相机姿态投影到世界坐标系中;
A22、将帧集合中的所有ORB特征根据空间位置以及描述子进行融合,并将融合后的mappoint与各个帧中的图像坐标系ORB坐标匹配起来,优化帧集合内部的mappoint以及帧集合内各个帧的位姿,将优化后的各个帧首先根据跟踪线程Track的位姿估计从TSDF模型中去除,然后得到的相机位姿将各个帧再重新融入到TSDF模型中;
A23、统计得到各个帧中与其他帧共视最多的帧作为关键帧,将该帧送入帧集合间全局优化线程globalmap。
4.根据权利要求1所述的基于ORB与U-net的花卉三维重建方法,其特征在于:所述步骤A3中回环检测为:系统首先导入一个ORB算子的字典,每个送来的关键帧根据字典得到自己的词袋向量,每个关键帧都与非自己前一关键帧的所有关键帧的词袋向量计算分数表达两帧相似度,当相似度超过阈值时则认为出现了回环;检测到回环则需要进行回环闭合,将当前关键帧向检测到回环的帧利用ORB特征进行匹配,优化当前关键帧帧世界坐标系下的mappoint在检测到回环的帧上的重投影误差来优化当前帧的pose以及当前帧ORB特征的世界坐标系位置,然后将优化后的当前帧的mappoint与检测到回环的帧的mappoint在世界坐标系下进行融合。
5.根据权利要求1所述的基于ORB与U-net的花卉三维重建方法,其特征在于:所述步骤A4包括:将当前帧的ORB特征与关键帧K的ORB特征进行匹配,然后利用EPnP将K在世界坐标系下的ORB特征与当前帧图像坐标系下的像素坐标的匹配对进行求解得到位姿,然后将关键帧K作为帧集合的第一帧,重定位成功并继续回到追踪线程开始三维重建。
6.根据权利要求2所述的基于ORB与U-net的花卉三维重建方法,其特征在于:
根据步骤A22中localmap中的mappoint与各个帧图像的匹配关系,统计得到各个帧中与其他帧共视最多的帧作为关键帧。
7.根据权利要求1所述的基于ORB与U-net的花卉三维重建方法,其特征在于:所述步骤B1中利用在maya下的大量三维花卉模型生成训练集和测试集groundtruth的TSDF模型,通过模拟出一条深度相机扫描的相机轨迹,得到训练集和测试集的作为网络输入的部分TSDF模型。
8.根据权利要求1所述的基于ORB与U-net的花卉三维重建方法,其特征在于:所述步骤B4中,利用matlab中的isosurface函数将TSDF模型转化为obj模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811060265.5A CN109215117B (zh) | 2018-09-12 | 2018-09-12 | 基于ORB与U-net的花卉三维重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811060265.5A CN109215117B (zh) | 2018-09-12 | 2018-09-12 | 基于ORB与U-net的花卉三维重建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109215117A true CN109215117A (zh) | 2019-01-15 |
CN109215117B CN109215117B (zh) | 2023-02-28 |
Family
ID=64983792
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811060265.5A Active CN109215117B (zh) | 2018-09-12 | 2018-09-12 | 基于ORB与U-net的花卉三维重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109215117B (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110070777A (zh) * | 2019-06-13 | 2019-07-30 | 大连民族大学 | 一种赫哲族鱼皮画仿真培训系统及实现方法 |
CN110296705A (zh) * | 2019-06-28 | 2019-10-01 | 苏州瑞久智能科技有限公司 | 一种基于距离度量学习的视觉slam回环检测方法 |
CN110428461A (zh) * | 2019-07-30 | 2019-11-08 | 清华大学 | 结合深度学习的单目slam方法及装置 |
CN110458889A (zh) * | 2019-08-09 | 2019-11-15 | 东北大学 | 一种基于语义路标的摄像机重定位方法 |
CN110531618A (zh) * | 2019-08-27 | 2019-12-03 | 河海大学 | 基于有效关键帧的闭环检测机器人自定位误差消除方法 |
CN110689544A (zh) * | 2019-09-06 | 2020-01-14 | 哈尔滨工程大学 | 一种遥感图像细弱目标分割方法 |
CN110717494A (zh) * | 2019-07-16 | 2020-01-21 | 北京航空航天大学青岛研究院 | Android移动端室内场景三维重建及语义分割方法 |
CN110793441A (zh) * | 2019-11-05 | 2020-02-14 | 北京华捷艾米科技有限公司 | 一种高精度物体几何尺寸测量方法及装置 |
CN110956664A (zh) * | 2019-12-17 | 2020-04-03 | 武汉易维晟医疗科技有限公司 | 一种手持式三维扫描系统的相机位置实时重定位方法 |
CN111047548A (zh) * | 2020-03-12 | 2020-04-21 | 腾讯科技(深圳)有限公司 | 姿态变换数据处理方法、装置、计算机设备和存储介质 |
CN111243093A (zh) * | 2020-01-07 | 2020-06-05 | 腾讯科技(深圳)有限公司 | 三维人脸网格的生成方法、装置、设备及存储介质 |
CN111754573A (zh) * | 2020-05-19 | 2020-10-09 | 新拓三维技术(深圳)有限公司 | 一种扫描方法及系统 |
CN113034675A (zh) * | 2021-03-26 | 2021-06-25 | 鹏城实验室 | 一种场景模型构建方法、智能终端及计算机可读存储介质 |
WO2022179385A1 (zh) * | 2021-02-26 | 2022-09-01 | 山东英信计算机技术有限公司 | 一种三维重建方法、装置、系统以及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107657640A (zh) * | 2017-09-30 | 2018-02-02 | 南京大典科技有限公司 | 基于orb slam的智能巡防巡检管理方法 |
CN107833250A (zh) * | 2017-10-24 | 2018-03-23 | 北京易达图灵科技有限公司 | 语义空间地图构建方法及装置 |
CN108364344A (zh) * | 2018-02-08 | 2018-08-03 | 重庆邮电大学 | 一种基于回环测试的单目实时三维重建方法 |
-
2018
- 2018-09-12 CN CN201811060265.5A patent/CN109215117B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107657640A (zh) * | 2017-09-30 | 2018-02-02 | 南京大典科技有限公司 | 基于orb slam的智能巡防巡检管理方法 |
CN107833250A (zh) * | 2017-10-24 | 2018-03-23 | 北京易达图灵科技有限公司 | 语义空间地图构建方法及装置 |
CN108364344A (zh) * | 2018-02-08 | 2018-08-03 | 重庆邮电大学 | 一种基于回环测试的单目实时三维重建方法 |
Non-Patent Citations (2)
Title |
---|
MICHAEL等: "State of art on 3D reconstruction with RGB-D Cameras", 《COMPUTER GRAPHICS》 * |
贾松敏等: "采用混合回环检测与闭环优化的TSDF地图创建", 《光学精密工程》 * |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110070777B (zh) * | 2019-06-13 | 2021-07-09 | 大连民族大学 | 一种赫哲族鱼皮画仿真培训系统及实现方法 |
CN110070777A (zh) * | 2019-06-13 | 2019-07-30 | 大连民族大学 | 一种赫哲族鱼皮画仿真培训系统及实现方法 |
CN110296705A (zh) * | 2019-06-28 | 2019-10-01 | 苏州瑞久智能科技有限公司 | 一种基于距离度量学习的视觉slam回环检测方法 |
CN110296705B (zh) * | 2019-06-28 | 2022-01-25 | 苏州瑞久智能科技有限公司 | 一种基于距离度量学习的视觉slam回环检测方法 |
CN110717494A (zh) * | 2019-07-16 | 2020-01-21 | 北京航空航天大学青岛研究院 | Android移动端室内场景三维重建及语义分割方法 |
CN110717494B (zh) * | 2019-07-16 | 2023-06-20 | 北京航空航天大学青岛研究院 | Android移动端室内场景三维重建及语义分割方法 |
CN110428461A (zh) * | 2019-07-30 | 2019-11-08 | 清华大学 | 结合深度学习的单目slam方法及装置 |
CN110428461B (zh) * | 2019-07-30 | 2022-07-05 | 清华大学 | 结合深度学习的单目slam方法及装置 |
CN110458889A (zh) * | 2019-08-09 | 2019-11-15 | 东北大学 | 一种基于语义路标的摄像机重定位方法 |
CN110531618A (zh) * | 2019-08-27 | 2019-12-03 | 河海大学 | 基于有效关键帧的闭环检测机器人自定位误差消除方法 |
CN110689544A (zh) * | 2019-09-06 | 2020-01-14 | 哈尔滨工程大学 | 一种遥感图像细弱目标分割方法 |
CN110793441B (zh) * | 2019-11-05 | 2021-07-27 | 北京华捷艾米科技有限公司 | 一种高精度物体几何尺寸测量方法及装置 |
CN110793441A (zh) * | 2019-11-05 | 2020-02-14 | 北京华捷艾米科技有限公司 | 一种高精度物体几何尺寸测量方法及装置 |
CN110956664A (zh) * | 2019-12-17 | 2020-04-03 | 武汉易维晟医疗科技有限公司 | 一种手持式三维扫描系统的相机位置实时重定位方法 |
CN110956664B (zh) * | 2019-12-17 | 2023-06-16 | 武汉易维晟医疗科技有限公司 | 一种手持式三维扫描系统的相机位置实时重定位方法 |
CN111243093A (zh) * | 2020-01-07 | 2020-06-05 | 腾讯科技(深圳)有限公司 | 三维人脸网格的生成方法、装置、设备及存储介质 |
CN111243093B (zh) * | 2020-01-07 | 2023-05-12 | 腾讯科技(深圳)有限公司 | 三维人脸网格的生成方法、装置、设备及存储介质 |
CN111047548B (zh) * | 2020-03-12 | 2020-07-03 | 腾讯科技(深圳)有限公司 | 姿态变换数据处理方法、装置、计算机设备和存储介质 |
CN111047548A (zh) * | 2020-03-12 | 2020-04-21 | 腾讯科技(深圳)有限公司 | 姿态变换数据处理方法、装置、计算机设备和存储介质 |
CN111754573A (zh) * | 2020-05-19 | 2020-10-09 | 新拓三维技术(深圳)有限公司 | 一种扫描方法及系统 |
CN111754573B (zh) * | 2020-05-19 | 2024-05-10 | 新拓三维技术(深圳)有限公司 | 一种扫描方法及系统 |
WO2022179385A1 (zh) * | 2021-02-26 | 2022-09-01 | 山东英信计算机技术有限公司 | 一种三维重建方法、装置、系统以及存储介质 |
CN113034675A (zh) * | 2021-03-26 | 2021-06-25 | 鹏城实验室 | 一种场景模型构建方法、智能终端及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109215117B (zh) | 2023-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109215117A (zh) | 基于ORB与U-net的花卉三维重建方法 | |
Zhang et al. | Learning signed distance field for multi-view surface reconstruction | |
Dai et al. | 3dmv: Joint 3d-multi-view prediction for 3d semantic scene segmentation | |
CN110458939B (zh) | 基于视角生成的室内场景建模方法 | |
Franco et al. | Exact polyhedral visual hulls | |
Tateno et al. | When 2.5 D is not enough: Simultaneous reconstruction, segmentation and recognition on dense SLAM | |
CN100407798C (zh) | 三维几何建模系统和方法 | |
CN103778635B (zh) | 用于处理数据的方法和装置 | |
CN108898630A (zh) | 一种三维重建方法、装置、设备和存储介质 | |
CN108537876A (zh) | 基于深度相机的三维重建方法、装置、设备及存储介质 | |
CN109003325A (zh) | 一种三维重建的方法、介质、装置和计算设备 | |
CN109242873A (zh) | 一种基于消费级彩色深度相机对物体进行360度实时三维重建的方法 | |
CN110223370B (zh) | 一种从单视点图片生成完整人体纹理贴图的方法 | |
CN104778736B (zh) | 单视频内容驱动的服装三维动画生成方法 | |
CN105809681A (zh) | 基于单相机的人体rgb-d数据恢复与三维重建方法 | |
CN110148217A (zh) | 一种实时三维重建方法、装置及设备 | |
CN107170037A (zh) | 一种基于多摄像机的实时三维点云重建方法和系统 | |
Zhang et al. | Critical regularizations for neural surface reconstruction in the wild | |
CN103854301A (zh) | 基于复杂背景下可见外壳的三维重建方法 | |
Zhang et al. | Mixedfusion: Real-time reconstruction of an indoor scene with dynamic objects | |
CN103443826A (zh) | 网格动画 | |
CN108665530A (zh) | 基于单张图片的三维建模实现方法 | |
Cheung | Visual hull construction, alignment and refinement for human kinematic modeling, motion tracking and rendering | |
Liu et al. | High-quality textured 3D shape reconstruction with cascaded fully convolutional networks | |
Chen et al. | Research on 3D reconstruction based on multiple views |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |