CN118154651A - 一种由粗到精的室内场景点云自动配准方法 - Google Patents
一种由粗到精的室内场景点云自动配准方法 Download PDFInfo
- Publication number
- CN118154651A CN118154651A CN202410578323.2A CN202410578323A CN118154651A CN 118154651 A CN118154651 A CN 118154651A CN 202410578323 A CN202410578323 A CN 202410578323A CN 118154651 A CN118154651 A CN 118154651A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- corresponding relation
- dimensional
- scale
- dimensional point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 230000000007 visual effect Effects 0.000 claims abstract description 63
- 230000009466 transformation Effects 0.000 claims abstract description 18
- 238000000605 extraction Methods 0.000 claims abstract description 17
- 238000013528 artificial neural network Methods 0.000 claims abstract description 7
- 239000011159 matrix material Substances 0.000 claims description 30
- 238000005070 sampling Methods 0.000 claims description 10
- 230000007246 mechanism Effects 0.000 claims description 9
- 239000013598 vector Substances 0.000 claims description 9
- 238000012360 testing method Methods 0.000 claims description 6
- 230000000750 progressive effect Effects 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 description 9
- 238000013135 deep learning Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 238000013519 translation Methods 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及计算机视觉和三维场景重建技术领域,特别是涉及一种由粗到精的室内场景点云自动配准方法,包括:获取室内场景的三维点云数据;将三维点云数据输入预设的点云几何视觉特征提取模型中,获取不同尺度的三维点云几何视觉特征,其中,点云几何视觉特征提取模型基于深度神经网络构建;基于三维点云几何视觉特征计算三维点云数据中源点云和目标点云的对应关系,对应关系包括节点对应关系和点对应关系;利用对应关系进行源点云和目标点云之间的刚性变换,完成室内场景的点云自动配准。本发明利用不同层次特征的互补性融合三维点云的局部特征和全局信息,由粗到精渐进建立可靠的点特征对应关系,提高室内场景点云数据自动配准的质量。
Description
技术领域
本发明涉及计算机视觉和三维场景重建技术领域,特别是涉及一种由粗到精的室内场景点云自动配准方法。
背景技术
随着激光雷达成像设备的飞速发展,高精度的三维点云数据获取变得越来越容易,从而使得围绕三维点云的研究逐渐成为国内外学者研究的热点话题。点云配准的基本思想是利用不同视角下点云数据的重叠部分,通过算法确定点与点之间的对应关系,以此计算出坐标变换关系,经过旋转平移等刚性变换将多源点云数据统一整合到指定坐标系下。通过点云配准技术,可以利用多站局部点云数据完成大规模场景的三维重建,这也是虚拟与增强现实、文化遗产保护、逆向工程等深层次应用领域的基础。
纵观近些年的研究状况,点云配准大致分为传统的配准算法和基于深度学习的配准算法。传统的点云配准算法有迭代最近点(ICP)算法、正态分布变换(NDT)算法、四点快速鲁棒匹配(4PCS)算法等。ICP算法迭代寻找欧氏距离最近点实现配准,速度快且精度高,但对点云的初始姿态有较高要求。NDT算法利用数学正态分布思想表征点云数据,计算速度优于ICP算法,但仍对初始位姿敏感。4PCS则采用随机抽样一致性(RANSAC)的思想,对初始位姿不敏感,对噪声适应力强,但计算速度慢,精度较低。随着深度学习技术的发展,基于深度学习的配准算法得到广泛关注,可大致分为基于关键点匹配的方法和基于全局姿态特征的方法。受到传统点云配准方法的启发,基于关键点匹配的方法通过学习稳健的局部区域特征,实现场景间准确的关键点匹配进而完成配准。由于这类方法在特征描述能力与场景泛化性能上展现出远超传统人工设计特征的能力,大部分现有方法都是基于关键点匹配的方法。与关键点匹配不同,基于全局姿态特征的方法从整体结构的角度直接对点云的姿态信息进行感知与编码,无需建立关键点匹配,运行速度快。然而,这类方法对场景重叠度较为敏感,因而较少关注。
当前国内外学者已经提出了很多基于深度学习的三维点云配准算法,但这些方法仍然存在稳健性差和精度低等问题。因此,亟需一种由粗到精的室内场景点云自动配准方法。
发明内容
本发明的目的是提供一种由粗到精的室内场景点云自动配准方法,利用不同层次特征的互补性融合三维点云的局部特征和全局信息,由粗到精渐进建立可靠的点特征对应关系,提高室内场景点云数据自动配准的质量。
为实现上述目的,本发明提供了如下方案:
一种由粗到精的室内场景点云自动配准方法,包括:
获取室内场景的三维点云数据;
将所述三维点云数据输入预设的点云几何视觉特征提取模型中,获取不同尺度的三维点云几何视觉特征,其中,所述点云几何视觉特征提取模型基于深度神经网络构建;
基于所述三维点云几何视觉特征计算所述三维点云数据中源点云和目标点云的对应关系,其中,所述对应关系包括节点对应关系和点对应关系;
利用所述对应关系进行所述源点云和目标点云之间的刚性变换,完成所述室内场景的点云自动配准。
可选地,所述点云几何视觉特征提取模型包括:编码器和解码器,所述编码器用于基于下采样获取第一尺度的三维点云几何视觉特征;所述解码器用于基于上采样获取第二尺度的三维点云几何视觉特征。
可选地,所述编码器基于下采样获取第一尺度的三维点云几何视觉特征包括:
通过第一图卷积模块提取所述三维点云数据中的第一点云局部特征;
采用注意力机制对所述第一点云局部特征进行计算,获取所述第一尺度的三维点云几何视觉特征。
可选地,所述解码器基于上采样获取第二尺度的三维点云几何视觉特征包括:
通过第二卷积模块提取所述第一尺度的三维点云几何视觉特征中的第二点云局部特征;
采用基于k近邻的反距离加权插值和跨级跳跃连接的分层传播策略,将相同尺度的所述第二点云局部特征与第一点云局部特征进行融合,获取所述第二尺度的三维点云几何视觉特征。
可选地,基于所述三维点云几何视觉特征计算所述三维点云数据中源点云和目标点云的对应关系包括:
利用矩阵相乘操作计算第一尺度的三维点云几何视觉特征的源点云和目标点云中各节点间特征向量的欧氏距离,获取第一相似度矩阵;
对所述第一相似度矩阵进行优化,获取第一尺度上的节点对应关系;
基于所述节点对应关系,利用k近邻搜索对每个节点分配固定数量的邻近点云,并获取每个节点的中间点;
计算第二尺度的三维点云几何视觉特征中每个节点及其中间点特征向量的欧氏距离,获取第二相似度矩阵;
对所述第二相似度矩阵进行优化,获取第二尺度上的点对应关系。
可选地,利用所述对应关系进行所述源点云和目标点云之间的刚性变换包括:
预设所述点对应关系的置信度;
将所述置信度作为先验信息,采用随机抽样一致性算法对所述点对应关系进行检验,获取检验结果;
基于所述检验结果选取配准点云,完成所述源点云和目标点云之间的刚性变换。
可选地,所述第一图卷积模块和第二卷积模块均采用递进的层级网络结构,所述递进的层级网络结构提取特征的方法为:
其中,表示第/>+1层的输入,/>表示卷积层数,/>表示邻接矩阵,/>表示第/>层的输入,/>表示第/>层的权重矩阵。
可选地,所述注意力机制的计算方法为:
其中,为通过对输入数据进行线性变换得到的不同矩阵,/>表示/>的向量维度,T表示矩阵的转置。
本发明的有益效果为:
本发明利用深度学习网络在特征提取方面的优势,利用图卷积神经网络和注意力机制汇聚融合局部和全局的视觉特征以深度挖掘不同空间尺度的点云几何视觉特征,通过建立由粗到精逐步优化点云对应关系,实现了可靠的同名点对对应关系构建,提高了同名点配对的自动化、智能化水平,进而显著提高了后续点云配准的精度和质量,将为虚拟与增强现实、文化遗产保护、逆向工程等深层次应用领域提供可靠的数据基础。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例的一种由粗到精的室内场景点云自动配准方法流程图;
图2为本发明实施例的编码-解码型深度神经网络框架结构示意图;
图3为本发明实施例的计算点对应关系流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
本实施例提供了一种由粗到精的室内场景点云自动配准方法,包括:
获取室内场景的三维点云数据;
将三维点云数据输入预设的点云几何视觉特征提取模型中,获取不同尺度的三维点云几何视觉特征,其中,点云几何视觉特征提取模型基于编码-解码型深度神经网络构建,点云几何视觉特征提取模型包括:编码器和解码器,编码器用于基于下采样获取第一尺度的三维点云几何视觉特征;解码器用于基于上采样获取第二尺度的三维点云几何视觉特征。
具体的,编码器基于下采样获取第一尺度的三维点云几何视觉特征包括:
通过第一图卷积模块提取三维点云数据中的第一点云局部特征;
采用注意力机制对第一点云局部特征进行计算,获取第一尺度的三维点云几何视觉特征。
具体的,解码器基于上采样获取第二尺度的三维点云几何视觉特征包括:
通过第二卷积模块提取第一尺度的三维点云几何视觉特征中的第二点云局部特征;
采用基于k近邻的反距离加权插值和跨级跳跃连接的分层传播策略,将相同尺度的第二点云局部特征与第一点云局部特征进行融合,获取第二尺度的三维点云几何视觉特征。
基于三维点云几何视觉特征计算三维点云数据中源点云和目标点云的对应关系,具体包括:
利用矩阵相乘操作计算第一尺度的三维点云几何视觉特征的源点云和目标点云中各节点间特征向量的欧氏距离,获取第一相似度矩阵;
对第一相似度矩阵进行优化,获取第一尺度上的节点对应关系;
基于节点对应关系,利用k近邻搜索对每个节点分配固定数量的邻近点云,并获取每个节点的中间点;
计算第二尺度的三维点云几何视觉特征中每个节点及其中间点特征向量的欧氏距离,获取第二相似度矩阵;
对第二相似度矩阵进行优化,获取第二尺度上的点对应关系。
利用对应关系进行源点云和目标点云之间的刚性变换,完成室内场景的点云自动配准,具体包括:
预设点对应关系的置信度;
将置信度作为先验信息,采用随机抽样一致性算法对点对应关系进行检验,获取检验结果;
基于检验结果选取配准点云,完成源点云和目标点云之间的刚性变换。
下面结合图1-3对本实施例提供的一种由粗到精的室内场景点云自动配准方法进行具体说明,具体包括:
(1)获取室内场景的三维点云数据,将三维点云数据输入预设的点云几何视觉特征提取模型中,获取不同尺度的三维点云几何视觉特征;
如图2所示,点云几何视觉特征提取模型基于编码-解码型深度神经网络构建,点云几何视觉特征提取模型包括:编码器和解码器,编码器用于基于下采样获取第一尺度的三维点云几何视觉特征;解码器用于基于上采样获取第二尺度的三维点云几何视觉特征。
由于点云数据的非结构化特点,将每个点看作节点,利用KNN(K-NearestNeighbor)算法为点云数据建立拓扑关系以表征点间的语义关联,由顶点和邻域点的组合构成点对,并由点对生成边,从而生成图结构。通过递进的层级网络结构将当前节点特征及其邻域节点特征融合从而实现特征提取,如式(1)所示。
(1)
其中,表示卷积层数,/>表示邻接矩阵,/>表示第/>层的权重矩阵。当/>时,取值为第一层的输入。
针对特征提取中无法捕获长距离区域之间的空间上下文信息的问题,利用注意力机制善于挖掘特征相关性的特点,增强网络模型对全局上下文信息聚合的性能。自注意力机制由多头注意力机制和缩放点积注意力单元组成,在计算过程中可以将任意两个输入数据的联系通过相同的计算步骤关联起来,缩短了远距离依赖特征之间的距离,因此能够有效地刻画输入与输出数据之间全局依赖关系,对点云局部特征进行调整。以图卷积模块提取的点云局部特征作为输入,为输入数据元素之间计算注意力分值以提取三维点云数据的全局上下文信息,从而得到更新后的点特征。
(2)
其中,都是通过对输入数据的线性变换得到的,/>表示/>的向量维度。
随着网络层次的加深,通过邻域间特征聚合与传递,更为丰富的语义特征信息被挖掘和融合,以便融合不同尺度范围的全局和局部多粒度空间特征。最后,采用基于k近邻的反距离加权插值和跨级跳跃连接的分层传播策略,融合相同尺度的编码与解码卷积特征图,以获得与原始点云分辨率相同的点特征,从而生成细粒度的三维点云几何视觉特征。
(2)基于三维点云几何视觉特征计算三维点云数据中源点云和目标点云的对应关系;
在计算不同空间尺度的点云几何视觉特征后,利用同名关键点几何视觉特征的相似性实现点对对应关系的计算。
如图3所示,在粗尺度对应关系的计算过程中,利用了编码器最后一层得到的粗尺度点云几何视觉特征(可称为节点对应关系),分别用表示源点云和目标点云在粗尺度上各个节点的几何视觉特征。然后,利用矩阵相乘操作计算源点云和目标点云中各节点间特征向量的欧氏距离,得到相似度矩阵scores。接着,利用基于Sinkhorn算法的最优传输迭代对相似度矩阵scores进行优化,以此实现粗尺度上源点云和目标点云中各节点间对应关系。
在进行粗尺度对应关系计算后,获得的节点对应关系需要被进一步细化成点对应关系,以得到细粒度的点对对应关系。对于每对节点对应关系,利用k近邻搜索将源点云和目标点云中每一个点被指派到其最近的节点,确立了每个点与其相近节点之间的归属关系,实现对每个节点分配固定数量(如64)的邻近点云。然后,从在解码器最后一层得到精细尺度的点云几何视觉特征中得到节点中每个点的几何视觉特征。接着,对于每对节点对应关系,计算节点对中点间特征向量的欧氏距离构建一个64×64的相似度矩阵(记为local_scores)。接着,利用基于Sinkhorn算法的最优传输迭代对相似度矩阵local_scores进行优化,以此实现细尺度上源点云和目标点云中点与点间对应关系。
(3)利用对应关系进行源点云和目标点云之间的刚性变换,完成室内场景的点云自动配准;
具体的,在随机抽样一致性(RANSAC)算法框架下,利用奇异值分解(SVD)算法求解最优的配准模型参数,基于最优配准模型参数进行源点云和目标点云之间的刚性变换,其中,本实施例中的配准模型为旋转和平移矩阵。
在步骤(2)中得到细粒度稠密点对对应关系的同时,每对点对应关系也附带一个置信度属性,表示该对点对应关系为正确配对的概率。置信度值越大,表示该对点对应关系是正确配对的概率越高。以这些对点对应关系置信度作为先验信息,引导随机抽样一致性(RANSAC)算法的采样过程,使得在采样选择计算配准模型的点对应关系过程中,置信度更大的点对应关系更容易被选到,通过优先采样高质量的点对应关系提高配准模型参数估计的稳健性,同时也减少了收敛时间。最终,选择局内点对应关系最多的旋转平移矩阵,作为求解的最优配准模型,获取最优配准模型参数,实现源点云和目标点云之间的刚性变换。
以上所述的实施例仅是对本发明优选方式进行的描述,并非对本发明的范围进行限定,在不脱离本发明设计精神的前提下,本领域普通技术人员对本发明的技术方案做出的各种变形和改进,均应落入本发明权利要求书确定的保护范围内。
Claims (8)
1.一种由粗到精的室内场景点云自动配准方法,其特征在于,包括:
获取室内场景的三维点云数据;
将所述三维点云数据输入预设的点云几何视觉特征提取模型中,获取不同尺度的三维点云几何视觉特征,其中,所述点云几何视觉特征提取模型基于深度神经网络构建;
基于所述三维点云几何视觉特征计算所述三维点云数据中源点云和目标点云的对应关系,其中,所述对应关系包括节点对应关系和点对应关系;
利用所述对应关系进行所述源点云和目标点云之间的刚性变换,完成所述室内场景的点云自动配准。
2.根据权利要求1所述的由粗到精的室内场景点云自动配准方法,其特征在于,所述点云几何视觉特征提取模型包括:编码器和解码器,所述编码器用于基于下采样获取第一尺度的三维点云几何视觉特征;所述解码器用于基于上采样获取第二尺度的三维点云几何视觉特征。
3.根据权利要求2所述的由粗到精的室内场景点云自动配准方法,其特征在于,所述编码器基于下采样获取第一尺度的三维点云几何视觉特征包括:
通过第一图卷积模块提取所述三维点云数据中的第一点云局部特征;
采用注意力机制对所述第一点云局部特征进行计算,获取所述第一尺度的三维点云几何视觉特征。
4.根据权利要求2所述的由粗到精的室内场景点云自动配准方法,其特征在于,所述解码器基于上采样获取第二尺度的三维点云几何视觉特征包括:
通过第二卷积模块提取所述第一尺度的三维点云几何视觉特征中的第二点云局部特征;
采用基于k近邻的反距离加权插值和跨级跳跃连接的分层传播策略,将相同尺度的所述第二点云局部特征与第一点云局部特征进行融合,获取所述第二尺度的三维点云几何视觉特征。
5.根据权利要求1所述的由粗到精的室内场景点云自动配准方法,其特征在于,基于所述三维点云几何视觉特征计算所述三维点云数据中源点云和目标点云的对应关系包括:
利用矩阵相乘操作计算第一尺度的三维点云几何视觉特征的源点云和目标点云中各节点间特征向量的欧氏距离,获取第一相似度矩阵;
对所述第一相似度矩阵进行优化,获取第一尺度上的节点对应关系;
基于所述节点对应关系,利用k近邻搜索对每个节点分配固定数量的邻近点云,并获取每个节点的中间点;
计算第二尺度的三维点云几何视觉特征中每个节点及其中间点特征向量的欧氏距离,获取第二相似度矩阵;
对所述第二相似度矩阵进行优化,获取第二尺度上的点对应关系。
6.根据权利要求1所述的由粗到精的室内场景点云自动配准方法,其特征在于,利用所述对应关系进行所述源点云和目标点云之间的刚性变换包括:
预设所述点对应关系的置信度;
将所述置信度作为先验信息,采用随机抽样一致性算法对所述点对应关系进行检验,获取检验结果;
基于所述检验结果选取配准点云,完成所述源点云和目标点云之间的刚性变换。
7.根据权利要求1-6任一项所述的由粗到精的室内场景点云自动配准方法,其特征在于,所述第一图卷积模块和第二卷积模块均采用递进的层级网络结构,所述递进的层级网络结构提取特征的方法为:
其中,/>表示第/>+1层的输入,/>表示卷积层数,/>表示邻接矩阵,/>表示第/>层的输入,/>表示第/>层的权重矩阵。
8.根据权利要求3所述的由粗到精的室内场景点云自动配准方法,其特征在于,所述注意力机制的计算方法为:
其中,/>为通过对输入数据进行线性变换得到的不同矩阵,/>表示/>的向量维度,T表示矩阵的转置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410578323.2A CN118154651A (zh) | 2024-05-11 | 2024-05-11 | 一种由粗到精的室内场景点云自动配准方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410578323.2A CN118154651A (zh) | 2024-05-11 | 2024-05-11 | 一种由粗到精的室内场景点云自动配准方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN118154651A true CN118154651A (zh) | 2024-06-07 |
Family
ID=91290986
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410578323.2A Pending CN118154651A (zh) | 2024-05-11 | 2024-05-11 | 一种由粗到精的室内场景点云自动配准方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN118154651A (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114332175A (zh) * | 2021-12-16 | 2022-04-12 | 广东工业大学 | 一种基于注意力机制的低重叠3d动态点云配准方法和系统 |
WO2022165876A1 (zh) * | 2021-02-06 | 2022-08-11 | 湖南大学 | 一种基于wgan的无监督多视角三维点云联合配准方法 |
US20220414821A1 (en) * | 2021-06-29 | 2022-12-29 | The Regents Of The University Of Michigan | Systems and methods for point cloud registration |
CN115731275A (zh) * | 2022-12-21 | 2023-03-03 | 安徽大学 | 基于注意力机制的非刚性三维点云配准方法及系统 |
CN115861563A (zh) * | 2022-12-28 | 2023-03-28 | 无锡东如科技有限公司 | 一种图拓扑刚性点云配准的三维重建方法 |
-
2024
- 2024-05-11 CN CN202410578323.2A patent/CN118154651A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022165876A1 (zh) * | 2021-02-06 | 2022-08-11 | 湖南大学 | 一种基于wgan的无监督多视角三维点云联合配准方法 |
US20220414821A1 (en) * | 2021-06-29 | 2022-12-29 | The Regents Of The University Of Michigan | Systems and methods for point cloud registration |
CN114332175A (zh) * | 2021-12-16 | 2022-04-12 | 广东工业大学 | 一种基于注意力机制的低重叠3d动态点云配准方法和系统 |
CN115731275A (zh) * | 2022-12-21 | 2023-03-03 | 安徽大学 | 基于注意力机制的非刚性三维点云配准方法及系统 |
CN115861563A (zh) * | 2022-12-28 | 2023-03-28 | 无锡东如科技有限公司 | 一种图拓扑刚性点云配准的三维重建方法 |
Non-Patent Citations (1)
Title |
---|
李策;卢冰;肖利梅;陈晓雷;: "基于相对坐标ICP的室内场景三维重建算法", 兰州理工大学学报, no. 03, 15 June 2017 (2017-06-15) * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021233029A1 (en) | Simultaneous localization and mapping method, device, system and storage medium | |
CN114862949B (zh) | 一种基于点线面特征的结构化场景视觉slam方法 | |
CN109960402B (zh) | 一种基于点云和视觉特征融合的虚实注册方法 | |
CN110110694B (zh) | 一种基于目标检测的视觉slam闭环检测方法 | |
CN109815847B (zh) | 一种基于语义约束的视觉slam方法 | |
CN108537844B (zh) | 一种融合几何信息的视觉slam回环检测方法 | |
CN112163622B (zh) | 全局与局部融合约束的航空宽基线立体像对线段匹配方法 | |
CN115713679A (zh) | 基于多源信息融合、热红外和三维深度图的目标检测方法 | |
CN115719407A (zh) | 一种面向大规模航拍图像的分布式多视图立体重建方法 | |
CN111598995A (zh) | 一种基于原型分析的自监督多目三维人体姿态估计方法 | |
CN116772820A (zh) | 一种基于slam和语义分割的局部细化建图系统及方法 | |
CN113628329B (zh) | 一种零样本草图三维点云检索方法 | |
CN116129118B (zh) | 基于图卷积的城市场景激光LiDAR点云语义分割方法 | |
CN118154651A (zh) | 一种由粗到精的室内场景点云自动配准方法 | |
Jisen | A study on target recognition algorithm based on 3D point cloud and feature fusion | |
Wilson et al. | Image and object Geo-localization | |
CN112132950A (zh) | 一种基于众包图像的三维点云场景更新方法 | |
CN114707611B (zh) | 基于图神经网络特征提取与匹配的移动机器人地图构建方法、存储介质及设备 | |
Sormann et al. | Ib-mvs: An iterative algorithm for deep multi-view stereo based on binary decisions | |
CN115393735A (zh) | 基于改进U-Net的遥感影像建筑物提取方法 | |
CN107194334B (zh) | 基于光流模型的视频卫星影像密集匹配方法及系统 | |
Sormann et al. | Dels-mvs: Deep epipolar line search for multi-view stereo | |
Liu et al. | Incorporating co-visibility reasoning into surface depth measurement | |
Ji et al. | Stereo matching algorithm based on binocular vision | |
An et al. | PointTr: Low-Overlap Point Cloud Registration with Transformer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination |