CN112102472B - 稀疏三维点云稠密化方法 - Google Patents
稀疏三维点云稠密化方法 Download PDFInfo
- Publication number
- CN112102472B CN112102472B CN202010901125.7A CN202010901125A CN112102472B CN 112102472 B CN112102472 B CN 112102472B CN 202010901125 A CN202010901125 A CN 202010901125A CN 112102472 B CN112102472 B CN 112102472B
- Authority
- CN
- China
- Prior art keywords
- depth map
- sparse
- point cloud
- dense
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000000280 densification Methods 0.000 title claims abstract description 16
- 238000013528 artificial neural network Methods 0.000 claims abstract description 68
- 238000012549 training Methods 0.000 claims abstract description 21
- 238000000605 extraction Methods 0.000 claims description 20
- 238000005070 sampling Methods 0.000 claims description 19
- 238000010586 diagram Methods 0.000 claims description 17
- 238000012935 Averaging Methods 0.000 claims description 4
- 125000004122 cyclic group Chemical group 0.000 claims description 4
- 230000004927 fusion Effects 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035772 mutation Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/06—Topological mapping of higher dimensional structures onto lower dimensional surfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种稀疏三维点云稠密化方法,方法包括:获取同一场景的三维点云和二维图像;将三维点云向二维图像所在平面进行投影,获取稀疏深度图;将稀疏深度图与二维图像经过深度神经网络融合为稠密深度图;将稠密深度图反投影形成稠密化三维点云。此外,还公开了训练深度神经网络的步骤,包括:获取至少一组三维点云样本、二维图像样本及稠密深度图样本;将三维点云样本向同一组内的二维图像样本所在平面进行投影,获取稀疏深度图样本;将稀疏深度图样本作为输入,稠密深度图样本作为输出,训练深度神经网络。相比于现有技术,本发明方案通过组合稀疏深度图与二维图像两者所包含的信息,得到稠密深度图,从而达到稀疏三维点云的稠密化。
Description
技术领域
本发明涉及三维点云处理领域,特别是涉及一种稀疏三维点云稠密化方法。
背景技术
稠密三维点云在自动驾驶、场景重建、场景感知等领域有广泛的应用。在现有技术中,受限于传感器的性能,直接采集高质量的稠密三维点云仍然十分困难、代价高昂。因此,通过算法手段对稀疏点云进行稠密化是广泛采用的解决方案。在工程实践中,稀疏点云稠密化方案主要分为两大类:基于优化的方法以及基于深度学习的方法。
在基于优化方法的技术方案中,假设三维点云所表示的物体表面具有平滑性,进而在三维空间、Voronoi图等域上进行插值达到点云升采样的目的。实际应用中的三维点云很难满足平滑性假设,由此衍生出了一类对形状突变更敏感的升采样方案,包括估计点云法向量来引导升采样等。总体而言,基于优化方法的技术方案采用非数据驱动的方案,高度依赖三维点云的先验知识,使得这类方法在实际应用中效果欠佳。
基于深度学习方法的技术方案是近年来随着计算机技术、深度学习技术发展起来的一类新途径。由于三维点云数据的稀疏、非结构化、不均匀特性,难以直接使用现有的卷积神经网络进行处理,多数基于深度学习的方法都将点云转化为另一种中间表示,例如体素网格,然后使用三维卷积神经网络处理。三维卷积网络计算量巨大,限制了这类方法的实际应用。随着三维点云数据的深度学习方法研究进步,出现了一批直接针对点云进行处理的方法,这类方法大多采用平均池化、最大池化等方法在不同感受野上提取点云特征,但这些方法尚处于早期研究,未能在点云稠密化领域取得良好进展。
鉴于此,本发明提出一种稀疏三维点云稠密化方法,同步获取相同场景的二维图像和三维点云,通过补全残缺深度图以实现稀疏三维点云的稠密化,以缓解现有技术的不足。
发明内容
本发明的目的在于提供一种稀疏三维点云稠密化方法,利用深度神经网络实现二维图像和三维点云的特征提取和融合。
一种稀疏三维点云稠密化方法,包括:获取同一场景的三维点云和二维图像;将三维点云向二维图像所在平面进行投影,获取稀疏深度图;将稀疏深度图与二维图像经过深度神经网络融合为稠密深度图;将稠密深度图反投影形成稠密化三维点云。
进一步地,深度神经网络包括:特征提取模块,特征提取模块包括DenseBlock组件,DenseBlock组件设置在深度神经网络的第2层到第3层;上采样模块,设置特征通道串联,设置卷积层融合特征通道的输出;跳层,连接特征提取模块和上采样模块;局部加权模块,将上采样模块输出的8通道特征图进行若干次循环局部加权平均。
进一步地,将稀疏深度图与二维图像经过深度神经网络融合为稠密深度图的步骤,包括:将稀疏深度图与二维图像分别送入特征提取模块的两个独立通道,进行特征提取,得到第一特征图序列和第二特征图序列;将第一特征图序列和第二特征图序列送入上采样模块融合为第三特征图序列;将第三特征图序列通过局部加权模块生成稠密深度图。
进一步地,将稀疏深度图与二维图像经过深度神经网络融合为稠密深度图的步骤,还包括:将稀疏深度图与二维图像送入若干个第一深度神经网络输出若干个第一稠密深度图,若干个第一深度神经网络的深度各不相同;针对若干个第一稠密深度图每个像素位置动态生成一组加权权重,若干个第一稠密深度图根据每个像素位置权重加权生成稠密深度图。
进一步地,在将稀疏深度图与二维图像经过深度神经网络融合为稠密深度图之前,还包括训练深度神经网络,深度神经网络的训练步骤包括:获取至少一组三维点云样本、二维图像样本及稠密深度图样本;将三维点云样本向同一组内的二维图像样本所在平面进行投影,获取稀疏深度图样本;将稀疏深度图样本作为输入,稠密深度图样本作为输出,训练深度神经网络。
进一步地,深度神经网络训练步骤,还包括:设置若干个不同深度的第一深度神经网络,将稀疏深度图样本作为输入,稠密深度图样本作为输出,训练第一深度神经网络;将若干个第一深度神经网络的隐藏层特征图,及预测稠密深度图作为输入,稠密深度图样本作为输出,训练深度神经网络。
优选地,第一深度神经网络的个数为4。
本发明的有益效果如下:
本发明提供的技术方案可以包括以下有益效果:提出了的一种稀疏三维点云稠密化方法,获取同一场景的三维点云和二维图像;将三维点云向二维图像所在平面进行投影,获取稀疏深度图;将稀疏深度图与二维图像经过深度神经网络融合为稠密深度图;将稠密深度图反投影形成稠密化三维点云。通过组合稀疏深度图与二维图像两者所包含的信息,得到稠密深度图,以达到稀疏三维点云稠密化的目的。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一种实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例一种稀疏三维点云稠密化方法流程示意图;
图2为本发明实施例深度神经网络结构示意图;
图3为本发明实施例深度神经网络特征提取模块101结构示意图;
图4为本发明实施例深度神经网络上采样模块102结构示意图;
图5为本发明实施例若干个第一深度神经网络预测结果进行融合的示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,所描述的实施例是本发明一部分实施例,而不是全部的实施例。
图1是本发明实施例一种稀疏三维点云稠密化方法流程示意图,如图1所示,该方法包括如下五个步骤。
步骤S101:训练深度神经网络。具体地,获取至少一组三维点云样本、二维图像样本及稠密深度图样本;将三维点云样本向同一组内的二维图像样本所在平面进行投影,获取稀疏深度图样本;将稀疏深度图样本作为输入,稠密深度图样本作为输出,训练深度神经网络。
需要进行说明的是,由于训练数据有限,模型容易陷入过拟合。目前针对集成学习的研究工作已经表明集合多个单独模型能够获得泛化性能更好的结果。针对这一点,进一步采用基于特征引导的逐像素Bagging模块进行多模型集成,进而获得更可靠的结果。在一个具体的实施例中,即训练若干不同深度的第一深度神经网络,从而集合多个第一深度神经网络以获得较佳的泛化性能。多个第一深度神经网络训练步骤包括:设置若干个不同深度的第一深度神经网络,将稀疏深度图样本作为输入,稠密深度图样本作为输出,训练第一深度神经网络;将若干个第一深度神经网络的隐藏层特征图,及预测稠密深度图作为输入,稠密深度图样本作为输出,训练深度神经网络。在一个优选的实施例中,第一深度神经网络的个数为4,深度分别为1、2、3和4。
步骤S102:获取同一场景的三维点云和二维图像。
在一个可选的实施例中,三维点云为激光三维点云;二维图像为可见光图像、红外图像、X光图像、CT图像、MRI图像中的一类,或多类融合的图像。
步骤S103:计算稀疏深度图。具体地,将三维点云向二维图像所在平面进行投影,获取稀疏深度图。
在一个可选的实施例中,根据三维点云采集设备与二维图像采集设备的配准信息,将稀疏的三维点云向二维图像所在平面投影,得到与二维图像相同尺寸的稀疏深度图,投影公式如下:
[ui,vi,1]T=M·[xi,yi,zi,1]T
其中,(xi,yi,zi)为三维点云中第i个点的三维坐标,(ui,vi)为该点在二维图像上的对应坐标,M∈R3×4为三维点云采集设备坐标系与二维图像坐标系间的转换矩阵,稀疏深度图上(ui,vi)位置的像素值为对应三维点的x坐标。三维点云向稀疏深度图的转换,可以解决三维点云难以直接使用深度卷积网络处理的问题,显式利用三维点云采集设备与二维图像采集设备的标定信息,减少深度神经网络的拟合压力。
步骤S104:计算稠密深度图。图2为本发明实施例深度神经网络结构示意图,如图2所示,将稀疏深度图与二维图像分别送入特征提取模块101的两个独立通道,进行特征提取,得到第一特征图序列和第二特征图序列;将第一特征图序列和第二特征图序列送入上采样模块102融合为第三特征图序列;将第三特征图序列通过局部加权模块104生成稠密深度图。
图3为本发明实施例深度神经网络特征提取模块101结构示意图,如图2和图3所示,深度神经网络包括:
特征提取模块101,特征提取模块101包括DenseBlock组件,DenseBlock组件设置在深度神经网络的第2层到第3层;
上采样模块102,设置特征通道串联,设置卷积层融合特征通道的输出;
跳层103,连接特征提取模块101和上采样模块102;
局部加权模块104,将上采样模块103输出的8通道特征图进行若干次循环局部加权平均。
需要进行说明的是,DenseBlock组件中的密集连接复用底层特征,使模型能够更加关注图像的细节特征,并且大幅减少参数量,提升运行速度。此外,图中的conv表示卷积运算。特征提取模块101中的Transition组件为现有技术中深度神经网络的过渡组件。
图2中所示的深度神经网络的深度为2,即特征提取模块101和上采样模块102的层数均为2。
图4为本发明实施例深度神经网络上采样模块102结构示意图,如图4所示,跳层103连接特征提取模块输出的特征图到上采样阶段进行特征图融合,使模型能够直接获取低层特征信息,有助于恢复细节。由于跳层连接的存在,网络训练阶段进行误差反向传播时损失函数可以直接作用于浅层网络,从而加快了网络训练。
需要进行说明的是,8通道特征图进行若干次循环局部加权平均的计算公式如下:
在一个可选的实施例中,将稀疏深度图与二维图像送入若干个第一深度神经网络输出若干个第一稠密深度图,若干个第一深度神经网络的深度各不相同;针对若干个第一稠密深度图每个像素位置动态生成一组加权权重,若干个第一稠密深度图根据每个像素位置权重加权生成稠密深度图。图5为本发明实施例若干个第一深度神经网络预测结果进行融合的示意图,如图5所示,本实施例选择4个第一深度神经网络进行处理。其中,FEAT1-FEAT4分别为四个第一深度神经网络的输出特征图,REC1-REC4分别为四个第一深度神经网络的预测结果。FEAT1-FEAT4经特征通道串联后使用卷积层处理得到4通道的等尺寸逐点权重矩阵W,采用以下公式计算最终输出深度图上每个位置的深度值:
c∈{1,2,3,4}
需要进行说明的是,对若干个第一深度神经网络的预测结果进行了Bagging操作,与现有技术中Bagging操作不同的是,没有采用直接全图平均的方式进行集合,而是采用卷积神经网络针对每个像素位置动态生成了一组加权权重,使得网络能够根据图像内容与图像位置动态调整加权比例,从而提升网络的拟合性能。
步骤S105:反投影计算稠密三维点云。具体地,将稠密深度图反投影形成稠密化三维点云。
在一个可选的实施例中,通过以下公式从稠密深度图反投影为稠密三维点云。
xi=di
式中(xi,yi,zi)为点云中第i个点的三维坐标;di代表第i个点的深度,u、v表示第i个点在稠密深度图上的坐标,u0和v0表示世界坐标系原点在稠密深度图上的坐标,f、dy、dx分别为二维图像采集设备的焦距、X方向分辨率、Y方向分辨率。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (6)
1.一种稀疏三维点云稠密化方法,其特征在于,包括:
获取同一场景的三维点云和二维图像;
将所述三维点云向二维图像所在平面进行投影,获取稀疏深度图;
将所述稀疏深度图与二维图像经过深度神经网络融合为稠密深度图,所述深度神经网络包括特征提取模块(101)、上采样模块(102)、跳层(103)和局部加权模块(104);所述特征提取模块(101)包括DenseBlock组件,所述DenseBlock组件设置在深度神经网络的第2层到第3层;所述上采样模块(102)设置特征通道串联和设置卷积层融合所述特征通道的输出;所述跳层(103)连接所述特征提取模块(101)和上采样模块(102);所述局部加权模块(104)将上采样模块(102)输出的8通道特征图进行若干次循环局部加权平均;将所述稠密深度图反投影形成稠密化三维点云。
2.根据权利要求1所述的方法,其特征在于,所述将稀疏深度图与二维图像经过深度神经网络融合为稠密深度图的步骤,包括:
将所述稀疏深度图与二维图像分别送入特征提取模块(101)的两个独立通道,进行特征提取,得到第一特征图序列和第二特征图序列;
将所述第一特征图序列和第二特征图序列送入上采样模块(102)融合为第三特征图序列;
将所述第三特征图序列通过局部加权模块(104)生成稠密深度图。
3.根据权利要求2所述的方法,其特征在于,所述将稀疏深度图与二维图像经过深度神经网络融合为稠密深度图的步骤,还包括:
将所述稀疏深度图与二维图像送入若干个第一深度神经网络输出若干个第一稠密深度图,所述若干个第一深度神经网络的深度各不相同;
针对所述若干个第一稠密深度图每个像素位置动态生成一组加权权重,所述若干个第一稠密深度图根据每个像素位置权重加权生成稠密深度图。
4.根据权利要求1所述的方法,其特征在于,在所述将稀疏深度图与二维图像经过深度神经网络融合为稠密深度图之前,还包括训练所述深度神经网络,所述深度神经网络的训练步骤包括:
获取至少一组三维点云样本、二维图像样本及稠密深度图样本;
将所述三维点云样本向同一组内的二维图像样本所在平面进行投影,获取稀疏深度图样本;
将所述稀疏深度图样本作为输入,所述稠密深度图样本作为输出,训练所述深度神经网络。
5.根据权利要求4所述的方法,其特征在于,所述的深度神经网络训练步骤,还包括:
设置若干个不同深度的第一深度神经网络,将所述稀疏深度图样本作为输入,所述稠密深度图样本作为输出,训练所述第一深度神经网络;
将所述若干个第一深度神经网络的隐藏层特征图,及预测稠密深度图作为输入,所述稠密深度图样本作为输出,训练所述深度神经网络。
6.根据权利要求5所述的方法,其特征在于,所述第一深度神经网络的个数为4。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010901125.7A CN112102472B (zh) | 2020-09-01 | 2020-09-01 | 稀疏三维点云稠密化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010901125.7A CN112102472B (zh) | 2020-09-01 | 2020-09-01 | 稀疏三维点云稠密化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112102472A CN112102472A (zh) | 2020-12-18 |
CN112102472B true CN112102472B (zh) | 2022-04-29 |
Family
ID=73757011
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010901125.7A Active CN112102472B (zh) | 2020-09-01 | 2020-09-01 | 稀疏三维点云稠密化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112102472B (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113160068B (zh) * | 2021-02-23 | 2022-08-05 | 清华大学 | 基于图像的点云补全方法及系统 |
CN113160327A (zh) * | 2021-04-09 | 2021-07-23 | 上海智蕙林医疗科技有限公司 | 一种点云补全的实现方法和系统 |
CN113239749B (zh) * | 2021-04-27 | 2023-04-07 | 四川大学 | 一种基于多模态联合学习的跨域点云语义分割方法 |
JP7568585B2 (ja) | 2021-06-09 | 2024-10-16 | 京セラ株式会社 | 測距装置、移動体及び測距方法 |
CN114004754B (zh) * | 2021-09-13 | 2022-07-26 | 北京航空航天大学 | 一种基于深度学习的场景深度补全系统及方法 |
US12039663B2 (en) | 2021-10-28 | 2024-07-16 | Nvidia Corporation | 3D surface structure estimation using neural networks for autonomous systems and applications |
US12100230B2 (en) | 2021-10-28 | 2024-09-24 | Nvidia Corporation | Using neural networks for 3D surface structure estimation based on real-world data for autonomous systems and applications |
US20230136235A1 (en) * | 2021-10-28 | 2023-05-04 | Nvidia Corporation | 3d surface reconstruction with point cloud densification using artificial intelligence for autonomous systems and applications |
US20230135088A1 (en) * | 2021-10-28 | 2023-05-04 | Nvidia Corporation | 3d surface reconstruction with point cloud densification using deep neural networks for autonomous systems and applications |
CN114638869A (zh) * | 2022-02-16 | 2022-06-17 | 奥比中光科技集团股份有限公司 | 深度图像的获取方法、装置、深度系统、终端和存储介质 |
CN114677315B (zh) | 2022-04-11 | 2022-11-29 | 探维科技(北京)有限公司 | 基于图像与激光点云的图像融合方法、装置、设备和介质 |
CN115861401B (zh) * | 2023-02-27 | 2023-06-09 | 之江实验室 | 一种双目与点云融合深度恢复方法、装置和介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109003325A (zh) * | 2018-06-01 | 2018-12-14 | 网易(杭州)网络有限公司 | 一种三维重建的方法、介质、装置和计算设备 |
CN109685842A (zh) * | 2018-12-14 | 2019-04-26 | 电子科技大学 | 一种基于多尺度网络的稀疏深度稠密化方法 |
CN110223383A (zh) * | 2019-06-17 | 2019-09-10 | 重庆大学 | 一种基于深度图修补的植物三维重建方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10983217B2 (en) * | 2018-11-30 | 2021-04-20 | Huawei Technologes Co. Ltd. | Method and system for semantic label generation using sparse 3D data |
-
2020
- 2020-09-01 CN CN202010901125.7A patent/CN112102472B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109003325A (zh) * | 2018-06-01 | 2018-12-14 | 网易(杭州)网络有限公司 | 一种三维重建的方法、介质、装置和计算设备 |
CN109685842A (zh) * | 2018-12-14 | 2019-04-26 | 电子科技大学 | 一种基于多尺度网络的稀疏深度稠密化方法 |
CN110223383A (zh) * | 2019-06-17 | 2019-09-10 | 重庆大学 | 一种基于深度图修补的植物三维重建方法及系统 |
Non-Patent Citations (1)
Title |
---|
3D Rigid Registration of Patient Body Surface Point Clouds by Integer Linear Programming;Jingheng Chen 等;《2019 International Conference on Image and Vision Computing New Zealand (IVCNZ)》;20191204;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112102472A (zh) | 2020-12-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112102472B (zh) | 稀疏三维点云稠密化方法 | |
CN110598610B (zh) | 一种基于神经选择注意的目标显著性检测方法 | |
CN110689008A (zh) | 一种面向单目图像的基于三维重建的三维物体检测方法 | |
CN110910390B (zh) | 一种基于深度畸变卷积的全景三维彩色点云语义分割方法 | |
CN112488210A (zh) | 一种基于图卷积神经网络的三维点云自动分类方法 | |
CN113240691A (zh) | 一种基于u型网络的医学图像分割方法 | |
GB2581374A (en) | 3D Face reconstruction system and method | |
CN112733950A (zh) | 一种基于图像融合与目标检测结合的电力设备故障诊断方法 | |
CN114255238A (zh) | 一种融合图像特征的三维点云场景分割方法及系统 | |
TW202004679A (zh) | 影像特徵提取方法及包含其顯著物體預測方法 | |
CN111931787A (zh) | 一种基于特征聚合的rgbd显著性检测方法 | |
CN108648161A (zh) | 非对称核卷积神经网络的双目视觉障碍物检测系统及方法 | |
CN111899328B (zh) | 一种基于rgb数据与生成对抗网络的点云三维重建方法 | |
CN106875437B (zh) | 一种面向rgbd三维重建的关键帧提取方法 | |
CN113297988B (zh) | 一种基于域迁移和深度补全的物体姿态估计方法 | |
CN112906675B (zh) | 一种固定场景中的无监督人体关键点检测方法及系统 | |
CN112927348B (zh) | 一种基于多视点rgbd相机高分辨率人体三维重建方法 | |
CN116071504B (zh) | 一种面向高分辨率图像的多视图立体重建方法 | |
JP2024510230A (ja) | 顔表情、身体ポーズ形状及び衣服パフォーマンスキャプチャのための暗黙的微分可能レンダラーを用いたマルチビューニューラル人間予測 | |
CN117315169A (zh) | 基于深度学习多视密集匹配的实景三维模型重建方法和系统 | |
CN117994480A (zh) | 一种轻量化手部重建与驱动的方法 | |
CN116958420A (zh) | 一种数字人教师三维人脸的高精度建模方法 | |
CN111259923A (zh) | 一种基于改进三维r-cnn算法的多目标检测方法 | |
CN113840127A (zh) | 一种卫星视频影像获取水域自动掩膜处理dsm的方法 | |
CN117788810A (zh) | 一种无监督语义分割的学习系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |