CN114004871A - 一种基于点云补全的点云配准方法及系统 - Google Patents

一种基于点云补全的点云配准方法及系统 Download PDF

Info

Publication number
CN114004871A
CN114004871A CN202210000497.1A CN202210000497A CN114004871A CN 114004871 A CN114004871 A CN 114004871A CN 202210000497 A CN202210000497 A CN 202210000497A CN 114004871 A CN114004871 A CN 114004871A
Authority
CN
China
Prior art keywords
point cloud
point
module
clouds
registration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210000497.1A
Other languages
English (en)
Other versions
CN114004871B (zh
Inventor
郭亮
李仕坤
叶扬
刘建亚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Liangrui Artificial Intelligence (Jinan) Co.,Ltd.
Original Assignee
Shandong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University filed Critical Shandong University
Priority to CN202210000497.1A priority Critical patent/CN114004871B/zh
Publication of CN114004871A publication Critical patent/CN114004871A/zh
Application granted granted Critical
Publication of CN114004871B publication Critical patent/CN114004871B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

本发明属于三维点云的信息处理技术领域,提供了一种基于点云补全的点云配准方法及系统,对源点云和目标点云执行采样,分别提取特征;利用注意机制融合两个点云的特征,使两个点云的语义信息相互补全;提取补全后的点云的高维特征,根据高维特征学习对方点云的位置信息,确定源点云中的每个点在目标点云中的对应点;根据对应点,利用奇异值分解获得当前刚性变换参数,利用当前刚性变化参数实现源点云向目标点云的配准。本发明不需要对原始点云大量删减,且能够补全缺失的点云信息,实现高效、准确的配准。

Description

一种基于点云补全的点云配准方法及系统
技术领域
本发明属于三维点云的信息处理技术领域,具体涉及一种基于点云补全的点云配准方法及系统。
背景技术
本部分的陈述仅仅是提供了与本发明相关的背景技术信息,不必然构成在先技术。
3D点云配准技术日益受到关注,其任务中的一些难点如点云规模的巨大,噪声的干扰,重叠区域的过少依然给该任务留下了很多挑战性的工作。点云配准根据输入数据量的不同通常分为多点云配准和两点云配准。由于多点云配准是建立在成对匹配的基础上,然后加入了图优化等全局优化方法,所以成对匹配是多点云配准的基础。
点云的成对配准包括传统算法配准和基于深度学习的配准两大类。其中传统算法又分为局部配准和全局配准两种方式。以全局配准的结果为初始值,以局部配准算法进行优化,这种由粗到细的策略已经得到了学者们的广泛认可。
在局部配准算法中,最具代表性的就是ICP类算法,该算法以两个原始的点云和一个初始化的刚体变换矩阵
Figure 701248DEST_PATH_IMAGE001
为输入,输出最优的刚体变换矩阵。ICP作为最经典的精确匹配算法,其不需要任何关于要优化的点云的先验知识,而且由于它是寻找点对之间的对应关系,所以可以达到很高的配准精度;不需要考虑点的几何特点,也不需要提取点的特征描述子,使得算法的实现难度不高。虽然ICP算法有以上这些优势,但是同时它对数据的要求也非常高。算法的收敛准确度与重叠区域所占的比率有很大的关系,通常50%的重叠率是配准的标准,否则的话将会很难提取到正确的对应点。因此为了避免陷入局部优化的弊端,ICP算法要求数据必须提前完成相对准确的匹配,也就是一个良好的初始值;除此之外,在面对重叠区域较少的点云配准情况下,大量的迭代是不可避免的,这就导致ICP算法在这种情况下非常耗时。
由于避免了对点密度和噪声干扰的敏感性,其他算法(如4PCS,4-pointscongruentsets)被提出,且在粗略对准方面已经取得了很大的成功。但这些方法通常都具有计算量大并且速度较慢,在大规模环境中有较大的限制等缺陷。
基于深度学习的配准一般是将神经网络融合到一个可训练,可迭代的深度网络架构中,通过神经网络学习到全局特征向量,并用来更新转换参数的变化量。或利用类似神经网络的黑盒子,将回归得到的高维特征直接用于转换参数的回归,这些方法因为要事先计算点云中每个点的局部特征并存储,所以在效率和内存上的表现有所欠缺,且可能删除部分原始点云信息。
发明内容
本发明为了解决上述问题,提出了一种基于点云补全的点云配准方法及系统,本发明不需要对原始点云大量删减,且能够补全缺失的点云信息,实现高效、准确的配准。
根据一些实施例,本发明采用如下技术方案:
一种基于点云补全的点云配准方法,包括以下步骤:
对源点云和目标点云执行采样,分别提取特征;
利用注意机制融合两个点云的特征,使两个点云的语义信息相互补全;
提取补全后的点云的高维特征,根据高维特征学习对方点云的位置信息,确定源点云中的每个点在目标点云中的对应点;
根据对应点,利用奇异值分解获得当前刚性变换参数,利用当前刚性变化参数实现源点云向目标点云的配准。
作为可选择的实施方式,对源点云和目标点云执行采样的具体过程包括:分别对源点云和目标点云执行多次最远点采样,获取多个分辨率的点云,所述最远点采样包括以下步骤:
(1)假设输入点云有N个点,从点云中选取一个点
Figure 541028DEST_PATH_IMAGE002
作为起始点,得到采样点集合
Figure 943059DEST_PATH_IMAGE003
(2)计算所有点到
Figure 235500DEST_PATH_IMAGE004
的距离,构成N维数组L,从中选择最大值对应的点作为
Figure 92598DEST_PATH_IMAGE005
,更新采样点集合
Figure 990147DEST_PATH_IMAGE006
(3)计算所有点到
Figure 641708DEST_PATH_IMAGE005
的距离,对于每一个点
Figure 873975DEST_PATH_IMAGE007
,其距离
Figure 269184DEST_PATH_IMAGE005
的距离如果小于L[i],则更新
Figure 755660DEST_PATH_IMAGE008
(4)选取数组L中最大值对应的点作为
Figure 843702DEST_PATH_IMAGE009
,更新采样点集合
Figure 110735DEST_PATH_IMAGE010
(5)重复步骤(2)-(4),直至采样数量到达目标值为止。
作为可选择的实施方式,分别提取特征的具体过程包括:利用点云动态图卷积网络模型对每一次采样的点云进行特征提取,所述点云动态图卷积网络模型提取点的邻域范围构成计算支持域,在所述支持域内通过多层感知机和池化层提取点云的局部信息;
将每一次采样的点云提取的局部信息拼接在一起,得到潜在映射,将潜在映射和全局高维特征拼接,获得表示点云全局和局部信息的高维特征图。
作为可选择的实施方式,利用注意机制融合两个点云的特征的具体过程包括:构建生成器以生成虚拟点,构建判别器以对虚拟点和真实点云的相似度进行判别,生成器和判别器相互博弈,利用相似度符合要求的生成器来融合两个点云的特征。
作为进一步的限定,所述生成器利用Transformer模型和单独的自注意力机制分别接收并处理两个点云的高维特征;将两者得到的特征向量进行拼接并经过再塑造操作改变维度之后,生成虚拟点;
所述判别器接收生成的虚拟点或真实点云数据,提取点云的高维特征,利用两个线性层进一步提取高维特征的特征,得到接收的点云是真实点云的概率,直至输出概率达到设定值,保留此时生成器的参数。
作为可选择的实施方式,提取补全后的点云的高维特征时,先利用前一迭代周期的刚性变换参数将补全后的点云进行转换,并分别将转换后的源点云和目标点云经过点云动态图卷积网络模型进行点云高维特征的提取。
作为可选择的实施方式,根据高维特征学习对方点云的位置信息,确定源点云中的每个点在目标点云中的对应点的具体步骤包括:
利用独立的Transformer模型接收补全后的点云的高维特征,学习对方点云的位置信息,经过Transformer模型之后获得向量
Figure 231007DEST_PATH_IMAGE011
Figure 899886DEST_PATH_IMAGE012
,对
Figure 96512DEST_PATH_IMAGE011
Figure 585262DEST_PATH_IMAGE012
相乘并进行softmax操作,以获得源点云中的每个点在目标点云中的对应概率矩阵,所述对应点为对应概率矩阵与目标完整点云点乘结果。
作为可选择的实施方式,利用奇异值分解获得当前刚性变换参数的具体过程包括:确定补全之后的源点云和目标点云的质心,求对应各点云偏离所述质心的协方差矩阵,对协方差矩阵执行奇异值分解,根据奇异值分解得到的结果,计算旋转矩阵和平移向量,所述当前刚性变换参数为计算得到的旋转矩阵和平移向量。
一种基于点云补全的点云配准系统,包括:
点云补全网络模块,被配置为对源点云和目标点云执行采样,分别提取特征,利用注意机制融合两个点云的特征,使两个点云的语义信息相互补全;
点云配准网络模块,被配置为提取补全后的点云的高维特征,根据高维特征学习对方点云的位置信息,确定源点云中的每个点在目标点云中的对应点,根据对应点,利用奇异值分解获得当前刚性变换参数,利用当前刚性变化参数实现源点云向目标点云的配准。
作为可选择的实施方式,所述补全网络模块包括依次连接的生成器和判别器,所述生成器包括依次连接的最远点采样模块、点云动态图卷积网络模型模块、Transformer模型模块、拼接模块和再塑造模块;
所述Transformer模型模块与一单独的自注意力机制模块并联;
所述判别器包括依次连接的特征提取模块、两个线性层和判别模块。
作为可选择的实施方式,所述点云配准网络模块包括依次连接的点云动态图卷积网络模型模块、Transformer模型模块、softmax函数模块和奇异值分解模块。
与现有技术相比,本发明的有益效果为:
本发明利用自监督的点云补全网络模块,该网络利用注意机制融合两个部分点云的几何信息,并结合生成对抗网络求解最优补全。随后,将配准网络结构拼接到所述网络结构的末端,从而估计丰富的对应点。利于消除不完全性对配准的副作用,并更加关注对应点,从而对初始旋转和稀疏性表现出弹性;也不用对原始点云大量删减,保证了点云信息的完整性和准确性,提高配准效果。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
构成本发明的一部分的说明书附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
图1为本实施例的点云补全网络结构示意图;
图2为本实施例的点云配准网络结构示意图;
图3为本实施例与其他深度学习算法在不同干扰条件下的配准效果图;
图4为本实施例与其他深度学习算法在不同的干扰条件下的补全效果图;
图5为不同稀疏程度对MAER)的影响;
图6为不同稀疏程度对t_loss的影响;
图7为不同旋转初始角度对MAER)的影响;
图8为计算SA的分数值的示意图。
具体实施方式
下面结合附图与实施例对本发明作进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本发明提供进一步的说明。除非另有指明,本实施例使用的所有技术和科学术语具有与本发明所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本发明的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
实施例一:
本实施例提供了一种基于点云补全的点云配准方法,利用点云补全网络和点云配准网络来实现点云的配准。
在本实施例中,为方便叙述,以VPRnet表示整个网络模型,VPRnet包括VPGnetRegnet两个部分,其中,VPGnet即为点云补全网络,用于生成虚拟点,并且Regnet为点云配准网络,用于配准补全的点云。
VPGnet又包括了两部分,即生成器和判别器。生成器负责生成缺失的点云,判别器用于对比生成点云和真实的完整点云,输出一个概率,该概率描述了输入点云是真实点云的可能性大小,生成器会根据判别器输出的概率调整自己的网络参数,生成新的点云,然后再次交由判别器判断,两者相互博弈,一直到判别器无法判断输入点云是生成点云还是真实点云,这说明此时的生成器网络已经足够优秀,这时候可以将生成器网络的参数保存下来。
下面结合具体实施细节,介绍各部分网络结构以及如何利用相应结构进行点云的处理。
点云的处理过程包括以下步骤:
步骤1.1:首先对输入的不完整点云经过Pointnet提取点云的全局信息
Figure 587853DEST_PATH_IMAGE013
。其中Pointnet是多个MLP(多层感知机)和最大池化层的结合。然后对输入点云进行降采样,减少计算量。本实施例采用FPS最远点采样,并进行了三次FPS,获得了多个分辨率的点云。
当然,在其他实施例中,可以选用其他采样方式,或调整采样次数。
FPS采样具体的过程包括:
步骤1.1.1:假设输入点云有N个点,从点云中选取一个点
Figure 298189DEST_PATH_IMAGE014
作为起始点,得到采样点集合
Figure 462454DEST_PATH_IMAGE015
步骤1.1.2:计算所有点到
Figure 641763DEST_PATH_IMAGE016
的距离,构成N维数组L,从中选择最大值对应的点作为
Figure 182466DEST_PATH_IMAGE017
,更新采样点集合
Figure 560357DEST_PATH_IMAGE018
步骤1.1.3:计算所有点到
Figure 348054DEST_PATH_IMAGE017
的距离,对于每一个点
Figure 811396DEST_PATH_IMAGE019
,其距离
Figure 93473DEST_PATH_IMAGE020
的距离如果小于
Figure 591450DEST_PATH_IMAGE021
,则更新
Figure 97518DEST_PATH_IMAGE022
,因此,数组L中存储的一直是每一个点到采样点集合S的最近距离;
步骤1.1.4:选取L中最大值对应的点作为
Figure 500686DEST_PATH_IMAGE023
,更新采样点集合
Figure 383192DEST_PATH_IMAGE024
步骤1.1.5:重复1.1.2-1.1.4步,一直采样到满足需要最终保留的个数的目标采样点为止。
步骤1.2:将采样后的点云输入到点云动态图卷积(DGCNN)网络组件中,该网络组件会首先提取点的邻域范围构成计算支持域,然后在此支持域内通过多层感知机mlp和池化层提取点云的局部信息。本发明的DGCNN包括五层卷积操作,前面四个卷积层之后,特征向量的维数为[64,64,128,256]。在第五卷积层之前,将四个特征向量串联在一起以获得512维潜在向量。接着,将该潜在向量传递到第五卷积层,得到1024维特征向量
Figure 735676DEST_PATH_IMAGE025
。对三次FPS均执行DGCNN操作,并将所有向量拼接在一起,得到一张3*1024的潜在映射
Figure 350328DEST_PATH_IMAGE026
。将获得的点云的局部信息
Figure 788262DEST_PATH_IMAGE026
和全局高维特征
Figure 661409DEST_PATH_IMAGE027
进行拼接,获得表示点云全局和局部信息的高维特征图。
特征提取过程可以总结为:
Figure 868400DEST_PATH_IMAGE028
(1)
Figure 981849DEST_PATH_IMAGE029
(2)
其中DDGCNN
Figure 844763DEST_PATH_IMAGE030
是原始点云,nx中点的数量,ptPointnet特征提取过程,
Figure 69071DEST_PATH_IMAGE031
Figure 583098DEST_PATH_IMAGE032
代表全局和局部向量,
Figure 867448DEST_PATH_IMAGE033
意味着重复DGCNNFPS m次,并且将获得的向量拼接起来。
Figure 14396DEST_PATH_IMAGE034
是第i次最远点采样。
步骤1.3:接下来对获得的高维特征图输入到注意力机制中,本发明的注意力机制包括两部分,一个是Transformer,一个是Self-Attention也就是自注意力机制,以下简记为SA。首先介绍Transformer。本实施例的Transformer由两部分组成:六个编码器和六个解码器。每个编码器由SA和前向传播函数组成,每个解码器由带掩码的SA和前向传播函数组成。
具体包括:
步骤1.3.1:本发明中的Transformer输入两个点云的高维特征。
步骤1.3.1.1:对于输入的特征向量,它的每个位置都有三个向量编码,分别为:QueryKeyValue。这三个向量是用对输入向量做位置编码之后的Embedding向量与三个矩阵(
Figure 980078DEST_PATH_IMAGE035
Figure 161661DEST_PATH_IMAGE036
Figure 616913DEST_PATH_IMAGE037
)相乘得到的结果,即:
Figure 703686DEST_PATH_IMAGE038
Figure 269797DEST_PATH_IMAGE035
Figure 243569DEST_PATH_IMAGE036
Figure 869722DEST_PATH_IMAGE037
三个矩阵的值在反向传播的过程中会一直进行更新。
步骤1.3.1.2:计算SA的分数值,该分数值决定了当在某个位置编码一个词时,对输入向量的其他部分的关注程度。这个分数值的计算方法是用输入向量中该位置的特征的Q与另外一个点云高维特征的每一个位置特征的Key做点乘。以图8为例,假设在为这个例子中的第一个词“Thinking”计算自注意力向量,需要拿输入句子中的每个单词对“Thinking”打分。这些分数决定了在编码单词“Thinking”的过程中重视句子其它部分的程度。
步骤1.3.1.3:对每个分数除以
Figure 991262DEST_PATH_IMAGE039
d是维度),之后做softmax
步骤1.3.1.4:把每个V向量和softmax得到的值进行相乘,然后对相乘的值进行相加,得到的结果即是一个新的位置特征的SAEmbeddinng值。将原输入特征向量与新的位置特征向量相加输入前向传播中最终输出编码器的新的位置特征。
步骤1.3.1.5:将编码器输出的新的位置特征输入到解码器中。解码器与编码器的不同之处在于解码器的SA其实是带掩码的SA,来让解码器在解码的时候无法看到“未来的”信息。也就是对于一个序列,解码器只能依赖前面位置的特征信息解码。其具体的操作方式是拼接原先SA获得的各个位置的新的特征量,然后对特征矩阵加上加上一个等维度的上三角矩阵,上三角的每个值都是-inf,这样与SA的特征矩阵相加之后做softmax会将inf的地方变成0。这样该矩阵的每一行就是带掩码的SA输出的新的位置特征向量。其余与编码器结构一样。融合了全局特征和局部特征的点云特征经过Transformer之后会输出一个融合了对方点云结构信息的新的高维特征向量,记为
Figure 548014DEST_PATH_IMAGE040
Transformer的计算可总结为以下方程式:
Figure 704189DEST_PATH_IMAGE041
(3)
假设从输入点云获得的高维向量是
Figure 438927DEST_PATH_IMAGE042
Figure 47763DEST_PATH_IMAGE043
,其中
Figure 142627DEST_PATH_IMAGE044
r是由DGCNNPointNet获得的高维特征数,这里是4。
Figure 153308DEST_PATH_IMAGE045
表示潜在映射之间的元素相加。高维特征
Figure 58947DEST_PATH_IMAGE046
Figure 155079DEST_PATH_IMAGE047
TransformerΩ生成
Figure 866683DEST_PATH_IMAGE048
。值得注意的是不是对称函数。也就是说
Figure 184401DEST_PATH_IMAGE049
。原因是两个输入序列对应于编码器和解码器的参数,并且两个模块对序列具有不同的处理过程。
步骤1.3.2:另外一个重要的注意力机制是单独的自注意力机制。要补全缺失点云的话,必须得知道自身点云保留的是哪一部分,这时候就要用到单独的SA来让网络意识到自身的几何结构信息。这里的SA并不带掩码的。其结构与Transformer中的SA结构相同,只是这里输入的是一组特征向量,所以在做SA的时候会将自身编码后的特征作为关注的目标特征向量。记最终输出的高维特征向量为
Figure 323258DEST_PATH_IMAGE050
步骤1.4:将TransformerSA输出的特征向量
Figure 578790DEST_PATH_IMAGE051
Figure 94085DEST_PATH_IMAGE052
进行拼接并经过reshape操作改变维度之后,生成
Figure 79359DEST_PATH_IMAGE053
的点云,其中n是点云中点的个数。以上就是生成器的所有过程。接下来介绍判别器的网络结构。
步骤1.5:判别器对于输入的点云首先进行DGCNN特征提取获得点云的高维特征表示。然后将生成的高维特征图输入到两个线性层中进一步提取特征,最后输出输入点云是真实点云的概率。生成器与判别器相互博弈,一直到判别器的输出概率接近50%,说明已经无法判断生成器生成的点云与真实点云,这是可以保留生成器的参数。
Figure 576068DEST_PATH_IMAGE054
(4)
其中,
Figure 381213DEST_PATH_IMAGE055
表示输入点云,此处为生成的虚拟点或真值点云,
Figure 372303DEST_PATH_IMAGE056
为最大池层,
Figure 212083DEST_PATH_IMAGE057
Leaky Relu激活函数,
Figure 879693DEST_PATH_IMAGE058
表示线性层。
步骤2:对于输入的不完整的点云,首先调用VPGnet网络补全点云。整个的VPRnet也是一个迭代的结构,每一次迭代都会输出配准的刚性变换参数,包括旋转矩阵和平移向量。获得补全的点云之后,首先用上一次迭代生成的刚性变换参数中的旋转矩阵
Figure 437714DEST_PATH_IMAGE059
,平移向量
Figure 29232DEST_PATH_IMAGE060
,转换源点云X
Figure 926781DEST_PATH_IMAGE061
步骤3:对于转换之后的源点云和目标点云都经过DGCNN进行点云高维特征的提取。该高维特征既包括了点云的全局信息也包括了点云的局部信息。分别记两个高维特征为
Figure 578342DEST_PATH_IMAGE062
Figure 545030DEST_PATH_IMAGE063
步骤4:将
Figure 940239DEST_PATH_IMAGE062
Figure 692295DEST_PATH_IMAGE063
共同输入到新的Transformer中,注意这里的Transformer并不是VPGnet中的Transformer,两者的参数并不共享。这里的Transformer因为应对的完整的点云,两个点云在几何形状上几乎一致,只有位置信息上有所不同,所以这里的Transformer旨在学习对方点云的位置信息。最终经过Transformer之后获得
Figure 514757DEST_PATH_IMAGE064
Figure 781790DEST_PATH_IMAGE047
维度均为nx1024。对
Figure 167641DEST_PATH_IMAGE046
Figure 836520DEST_PATH_IMAGE065
相乘并进行softmax操作,可以获得源点云中的每个点在目标点云中的对应概率矩阵
Figure 767567DEST_PATH_IMAGE066
。对应点的计算可以用下式表示:
Figure 521896DEST_PATH_IMAGE067
(5)
式中,
Figure 711438DEST_PATH_IMAGE068
Figure 234823DEST_PATH_IMAGE069
表示Transformer后的高维特征图。
Figure 399088DEST_PATH_IMAGE066
的维数为
Figure 578397DEST_PATH_IMAGE070
Figure 119100DEST_PATH_IMAGE071
表示softmax函数。每个元素
Figure 683942DEST_PATH_IMAGE072
表示完整点云
Figure 284688DEST_PATH_IMAGE073
中的第i点与目标完整点云
Figure 685713DEST_PATH_IMAGE074
中的第j点之间的相关性。所以对应点的计算为
Figure 30107DEST_PATH_IMAGE075
步骤5:获得对应点之后就可以利用SVD(奇异值分解)来获得当前迭代对应的刚性变换参数。
定义补全之后的源点云和目标点云的质心
Figure 262505DEST_PATH_IMAGE076
(6)
协方差矩阵可以被写为:
Figure 221103DEST_PATH_IMAGE077
(7)
H执行奇异值分解:
Figure 171741DEST_PATH_IMAGE078
(8)
其中U
Figure 991930DEST_PATH_IMAGE079
分别是由
Figure 344413DEST_PATH_IMAGE080
Figure 286962DEST_PATH_IMAGE081
的特征向量形成的矩阵。S是对角线矩阵,其对角线元素为H的特征值。最后,旋转矩阵R和平移向量t可根据方程式9计算:
Figure 911847DEST_PATH_IMAGE082
(9)。
需要介绍下上述环节训练中的损失函数:
在开始网络训练之前,需要明确网络的训练方向,即确定VPRnet的损失函数。
第一个损失函数是VPGnet中鉴别器的对抗性损失
Figure 598043DEST_PATH_IMAGE083
。本实施例中测试了四组对抗性损失,即真值x点云、生成的x虚拟点云、真值y点云和生成的y虚拟点云,以上标g表示真值,上标v表示虚拟点云,因此
Figure 742717DEST_PATH_IMAGE084
为:
Figure 856166DEST_PATH_IMAGE085
(11)
每一个
Figure 991785DEST_PATH_IMAGE086
被定义为:
Figure 216093DEST_PATH_IMAGE087
(12)
其中
Figure 480852DEST_PATH_IMAGE088
是部分点云中的一个点,
Figure 499624DEST_PATH_IMAGE089
是部分点云x真实确实的点云,D()和G()表示判断器和生成器。
可以用两种度量来计算两点云之间的距离,即倒角距离和搬土距离。倒角距离计算输入两点云之间的平均最近点距离,如等式13所示。第一项表示从
Figure 912151DEST_PATH_IMAGE090
Figure 127100DEST_PATH_IMAGE091
中任意点x的最小距离之和。第二项起对称作用。此外,两组
Figure 308683DEST_PATH_IMAGE090
Figure 701618DEST_PATH_IMAGE092
不需要大小相同。搬土距离作为基于运输效率的直方图相似性度量。它计算从一个分布到另一个分布的最小距离。与倒角距离cd不同,搬土距离emd的计算要求两组
Figure 335862DEST_PATH_IMAGE090
Figure 88923DEST_PATH_IMAGE091
具有相同的大小。计算方法如等式14所示:
Figure 390591DEST_PATH_IMAGE093
(13)
Figure 16745DEST_PATH_IMAGE094
(14)
计算了由XY点云生成的虚拟点云与真实缺失部分之间的倒角距离和搬土距离。除此之外,组合点云和真实完整点云之间的倒角距离用于确保前者具有与后者相似的形状和结构。因此,生成器的损失函数可总结如下:
Figure 75968DEST_PATH_IMAGE095
(15)
Figure 445769DEST_PATH_IMAGE096
(16)
式中,
Figure 788895DEST_PATH_IMAGE097
Figure 585949DEST_PATH_IMAGE098
是源部分云X和目标部分云Y生成的虚拟点云;
Figure 194785DEST_PATH_IMAGE099
Figure 40381DEST_PATH_IMAGE100
是输入两点云的真实缺失区域;
Figure 51063DEST_PATH_IMAGE101
Figure 205969DEST_PATH_IMAGE102
是由原始部分点云和生成的虚拟点组成的完整点云;
Figure 302101DEST_PATH_IMAGE103
Figure 951389DEST_PATH_IMAGE104
是真值完整源点云和目标点云。采用相同的方法和对称参数计算
Figure 816576DEST_PATH_IMAGE105
最后一个损失函数是配准损失。直接测量原始点云预处理过程中记录的真值
Figure 142384DEST_PATH_IMAGE106
Figure 725812DEST_PATH_IMAGE107
与预测Rt的偏差。等式17显示了最后一个损失项:
Figure 241107DEST_PATH_IMAGE108
(17)
这里,g表示真值。k表示总迭代次数。因此,总损失可总结如下:
Figure 632906DEST_PATH_IMAGE109
(18)。
本实施例在具体实现时,将训练批大小设置为64,将epoch设置为250。Adam是本实施例所选的优化器,其学习率为0.0002,权重衰减为0.001,以稳定高效地执行梯度下降。为了加快GAN网络的训练速度,首先为G网络训练50个epoch,以便G网络在短时间训练后能够生成一定数量的精确虚拟点。Regnet中的迭代总数为5。方程式12中的
Figure 942664DEST_PATH_IMAGE110
设为0.05。
本实施例在具体实现时,利用的数据集中在Modelnet40数据集上对VPRnet进行了训练和评估。该数据集由12311个网格化CAD模型组成,分为40个类别。为了网络训练的合理性,将完整的modelnet40数据集划分为8:2,构建训练集和测试集,分别为9843个训练集和2468个测试集。在测试看不见的类别模型时,利用Modelnet40中形状名称文件的前32个类别进行训练,最后8个类别进行测试。
训练集和测试集的数据量比接近8:2,分别为9907个列车模型和2404个测试模型。从Modelnet40样本中统一抽取1024个点,用于VPGnet的训练和测试。对于所有采样点云,采用增强策略,该策略沿每个坐标轴执行旋转和平移,随机选择的角度在[0,45°]范围内,距离从[-0.5,0.5]生成。此外,在点云内部任意选择一个点,并排除最近的k点来构造原始部分点云,这里k设置为256。
通过计算五个注册度量来评估网络框架,包括平均绝对误差、均方误差、均方根误差、旋转损失和平移损失,分别为:
Figure 465918DEST_PATH_IMAGE111
(24)
Figure 519325DEST_PATH_IMAGE112
(25)
Figure 359105DEST_PATH_IMAGE113
(26)
Figure 777448DEST_PATH_IMAGE114
(27)
Figure 335468DEST_PATH_IMAGE115
(28)
等式24-26显示了评价源点云和目标点云之间距离的前三个度量的计算方法,其中
Figure 113937DEST_PATH_IMAGE116
是源点云和目标点云中的一组对应预测点对,以及
Figure 808224DEST_PATH_IMAGE117
Figure 663047DEST_PATH_IMAGE118
是对应点对中点的三维坐标,通过保留距离
Figure 442785DEST_PATH_IMAGE118
最近点获得
Figure 24945DEST_PATH_IMAGE117
,即
Figure 839317DEST_PATH_IMAGE119
Figure 599462DEST_PATH_IMAGE120
其中
Figure 866496DEST_PATH_IMAGE121
是预测的刚性变换矩阵,N是源点云中的点数。以上指标越小,配准效果越好。在真实刚性变换参数和预测结果之间采用L2范数来评估旋转和平移估计的准确性。
Figure 65396DEST_PATH_IMAGE122
Figure 921225DEST_PATH_IMAGE123
的计算方法如公式27和28所示,其中
Figure 914589DEST_PATH_IMAGE124
Figure 606602DEST_PATH_IMAGE125
是预测的旋转结果,
Figure 343613DEST_PATH_IMAGE126
Figure 53949DEST_PATH_IMAGE127
分别是真实旋转矩阵和平移向量。
为了更全面地评估所提出的网络框架,还提供对比例,对比例选用两种方法,一种是最具代表性的传统算法,包括ICPGO-ICPFGR,另一种是近年来提出的最先进的基于深度学习的算法,包括PointnetLKDCP。所有网络均在NVIDIATeslav100 GPU中进行训练,并在AMDRyzen 7中以4800HCPU进行测试。
传统算法中基于特征的配准方法是快速全局配准(FGR)。该算法利用点云的快速点特征直方图返回具有相似几何结构的对应点对。另一种是ICP及其变体算法GOICPICP-PlaneICP作为一种经典的点云配准算法,能够在保证良好初始值的前提下准确完成配准任务。GO-ICP通过采用分支定界方法在全局范围内搜索最优值,避免了ICP算法陷入局部优化的缺点。ICP-Plane更改点到点到点的距离为点到平面的距离。Open3D中提供了ICPICP-PlaneFGR的实现。GO-ICP从库pygoicp调用。ICP及其变体ICP平面使用刚性单位矩阵初始化。
深度学习算法是PointnetLKDCP。作为第一种基于深度学习的配准算法,PointnetLK提出了一种利用MLP提取点云特征进行姿态估计的策略。此外,DCP去除了PointNetLK中李代数的相关计算,并应用Transformer提取混合特征。然后利用奇异值分解(SVD)对相应的点对估计旋转矩阵和平移向量。作为将注意机制应用于配准任务的高级算法,DCP算法在Modelnet40数据集上具有最先进的性能,因此将其视为基于对应点对的第二基线算法。此外,PRnetDCP算法的基础上增加了迭代的思想,使得性能优于DCP算法。然而,它不是开源的。因此,保留DCPPointnetLK作为最终的基于深度学习的算法。
经过实验对比测试,测试结果包括:
泛化能力测试:
表1 泛化能力测试的结果
Figure 421477DEST_PATH_IMAGE128
表1为ModelNet40中未显示类别的点云结果。其中粗体数字表示最佳性能。本实施例方法的性能在几乎所有指标中都表现最好。
在第一个实验中,按类标签将ModelNet40数据集拆分为训练集和测试集。所有四种基于深度学习的方法都在前32个类别上进行了训练,并在保留类别上进行了测试。至于传统算法,它们也在最后8类数据集上进行了评估。结果如表1所示。为了进行比较,定义了相对错误率,以规范化不同数量级的指标。计算方法为:
Figure 663102DEST_PATH_IMAGE129
,其中
Figure 938226DEST_PATH_IMAGE130
是具体指标的值。如表1所示,可以清楚地从除时间外的所有指标来看,本发明提供的方法VPRnet排名靠前。虽然ICP在计算时间上占优势,但本实施例的方法在MSER)和t损失等其他指标上比ICP强得多,相对错误率分别为65.72%和71.43%。
上述现象的原因是ICP算法本质上是一种优化算法。部分重叠的数据不能提供足够的正确匹配,因此很难收敛到正确的变换参数。相比之下,自监督VPRnet首先生成虚拟对应点,然后利用注意机制计算正确的对应点,从而保证了对应关系的丰富性和正确性。在比较其他两种基于深度学习的方法时,也会出现类似的情况。DCPPointnetLK算法与VPRnet都有很大差距,尤其是在旋转估计方面(“差距分别为61.08%和73.60%)值得注意的是,尽管本实施例的方法相比于DCP包括一个额外的VPGnet和一个迭代的Regnet,但计算时间比DCP要短。因此,可以说本实施例的方法取得了具有竞争性的表现。配准后样本的可视化如图3所示。图4和图3的(a)显示了未看到类别的补全和配准结果。从图中可以清楚地看出,本实施例的配准结果更好,形状匹配最好。
鲁棒性测试:
接下来的三个实验测试了该算法和其他对比算法对噪声、稀疏度和初始旋转角度的抵抗能力。
表2 噪声点云的结果
Figure 768647DEST_PATH_IMAGE131
噪声测试:
N(0,0.002)中随机采样噪声,并将其裁剪为[-0.05,0.05]。所有基于深度学习的算法都使用噪声点云进行重新训练,所有结果如表2所示。图3的(b)和图4的(b)总结了基线算法中噪声数据的配准结果,这表明本实施例的方法的形状匹配占主导地位。关于噪声配准的精确分析如下所述。
显然,从表2中可以看出,除了RMSER)、MAER)中的ICP算法优于VPRnet外,大多数指标在这些算法的结果中仍然排名第一。特别是,与其他两种深度学习方法相比,本实施例的方法在旋转估计方面具有显著的领先优势。例如,MSER)、RMSER)、MAER)的相对误差率分别达到80.21%、55.67%、56.04%。因此,可以证明VPRnet可以更好地解决噪声干扰的部分到部分配准问题。然而,仍然有一个问题值得讨论。与干净数据下的测试结果相比,在噪声的影响下,本实施例的误差度量有不同程度的增加。例如,R损失从0.41变为0.77,t损失从0.06变为0.13。挖掘更深层次的原因,采用自监督VPGnet生成虚拟点,首先对原始输入点云进行最远点采样,得到四个子采样点云。如果这些点云都受到噪声的影响,则深度特征中包含的信息包含很多干扰。此外,对应矩阵的获取受到错误虚点的影响,并且对应对偏离了真实对应点对。算法性能的一个关注点是计算效率,VPRnet仍然领先于DCP,而与PointnetLK的时间间隔为0.07s,这表明本实施例方法在处理噪声污染的点云时效率有所提高。
稀疏性测试:
随后,测试了不同稀疏度水平对预测的旋转和平移的影响。首先在原始两点云上执行FPS。因此,最终保留了四个稀疏级别,即0.5、0.25、0.125、0.0625。所有参与比较的算法在不同稀疏度水平下的统计性能如图5和图6所示。图3的(c)和图4的(c)显示了算法中稀疏点云的配准和补全结果。虽然点云数据稀疏,但本实施例的方法仍然可以缓解这一限制,保证进行最优点云配准算法的计算。具体分析如下。
从图5可以看出,无论稀疏度水平如何变化,本实施例的方法的预测旋转和平移误差始终在所有方法中排名第一或第二。在传统算法中,只有ICP的旋转估计可以与本实施例的方法相媲美。当稀疏度为0.0625和0.125时,ICP算法优于本实施例的方法。同时,其余算法与本实施例的方法之间的最小平均错误率MAER)为33.81%。以基于深度学习的方法为重点,DCP和本实施例的方法能够始终保持对稀疏度变化的稳定性,平均变化幅度仅为0.33和2.2。然而,平均值分别为32.62和15.14,差距达到17.48。上述情况表明,本实施例相较于DCP额外的虚拟点补全策略弥补了由于点云稀疏性增加而导致的形状信息不足。
初始旋转角度测试:
遵循FMR的建议,将初始旋转角度范围0-60°平均分为6组,间隔10°。计算了上述初始角度组中的预测旋转指标,以探索所选算法对初始旋转角度的鲁棒性。比较结果的统计如图7所示。图中不同形状的虚线表示不同算法在不同初始旋转角度下的性能。图3的(d)显示了初始旋转角度为30-40°的点云的配准结果。ICP-Plane和本实施例的算法很好地融合了两个原始点云的几何信息。具体分析如下:
从总体上看,随着初始旋转角度的增大,各种算法的预测误差都呈现出激增的趋势。深入查看图7中所示的实验结果,ICP算法类容易受到重叠率的影响,因此它们不受初始旋转角度增加的影响。此外,FGR算法中使用的FPFH特征也是旋转敏感的,这削弱了在不同初始旋转角度下的配准能力。然而,我们的算法在每个初始旋转角度(0-10°除外)保持最低的MAE。在这种情况下,由于原始点云具有比其他情况更大的重叠面积,ICP可以充分发挥其优势。然而,本实施例的方法的MAEs平均值为15.19,仍然小于排名第二的ICP算法的24.93。特别是,在大角度(40°-60°)下,本实施例的方法比基于深度学习的方法获得了明显更持久的性能。通过检验,得出的结论是,利用TransformerRegnet的结构中考虑相对点云的位置信息,因此配准网络生成的对应点可以敏锐地意识到对面点云的位置变化。
另外,在这里还进行了替换验证,利用部分算法或模型替换本发明所提出的方法中若干步骤。
VPGnet的训练过程中排除了鉴别器,只训练了发生器部分。因此,旋转误差度量和平移误差度量都变得更大。特别是,MSER)从135.42变为139.45,RMSER)从9.84变为10.03,MSEt)也增加到了0.04。因此,可以推断,生成器和鉴别器在相互对抗中共同提高生成能力和判断能力。虽然不带鉴别器的VPGnet也可以达到不错的精度,即R_losst_loss分别为0.42和0.06,这两个值都小于DCP的测量值,但它并没有达到最佳值。总之,GAN的对抗结构有助于生成正确的虚拟点。
如果排出排除了Regnet中的Transformer模块,并探讨了该模块对于特征提取的意义。在新的特征提取结构中,分别从源点云和目标点云中提取深度特征。特征信息之间没有通信。结果如表3所示。
表3 特征提取的结果
Figure 103814DEST_PATH_IMAGE132
从表3中可以看出,无论旋转还是平移测量,不包括Transformer模块的Regnet都不如原始Regnet。特别是在旋转量估计中,MSER)、RMSER)、MAER)的相对误差率分别为50.92%、36.77%、37.14%。因此,Transformer不仅提供相对点云的形状信息,而且还包括相对点的位置信息。将自己的信息与其他点云的高维特征相嵌入,可以更准确地匹配对应的点。
首先通过自监督完成网络在部分重叠的原始点云上生成虚拟点,形成相对完整的点云。然后利用Transformer的注意机制和自我注意机制,从对向点云中提取信息,并结合对向点云的特征进行融合,获得具有高度表达能力的深层嵌入。从Modelnet40获得的各种实验结果表明,与传统和高级深度学习算法相比,本实施例的方法具有显著的通用性和鲁棒性。此外,通过替换或删除某些步骤的验证,可以看出每个步骤都扮演着不可或缺的角色。因此,本实施例的方法在评估标准上实现了先进的性能。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。

Claims (10)

1.一种基于点云补全的点云配准方法,其特征是,包括以下步骤:
对源点云和目标点云执行采样,分别提取特征;
利用注意机制融合两个点云的特征,使两个点云的语义信息相互补全;
提取补全后的点云的高维特征,根据高维特征学习对方点云的位置信息,确定源点云中的每个点在目标点云中的对应点;
根据对应点,利用奇异值分解获得当前刚性变换参数,利用当前刚性变化参数实现源点云向目标点云的配准。
2.如权利要求1所述的一种基于点云补全的点云配准方法,其特征是,对源点云和目标点云执行采样的具体过程包括:分别对源点云和目标点云执行多次最远点采样,获取多个分辨率的点云,所述最远点采样包括以下步骤:
(1)假设输入点云有N个点,从点云中选取一个点
Figure 55214DEST_PATH_IMAGE001
作为起始点,得到采样点集合
Figure 39219DEST_PATH_IMAGE002
(2)计算所有点到
Figure 648055DEST_PATH_IMAGE003
的距离,构成N维数组L,从中选择最大值对应的点作为
Figure 759231DEST_PATH_IMAGE004
,更新采样点集合
Figure 769912DEST_PATH_IMAGE005
(3)计算所有点到
Figure 737868DEST_PATH_IMAGE004
的距离,对于每一个点
Figure 20951DEST_PATH_IMAGE006
,其距离
Figure 466975DEST_PATH_IMAGE004
的距离如果小于L[i],则更新
Figure 535426DEST_PATH_IMAGE007
(4)选取数组L中最大值对应的点作为
Figure 674283DEST_PATH_IMAGE008
,更新采样点集合
Figure 257711DEST_PATH_IMAGE009
(5)重复步骤(2)-(4),直至采样数量到达目标值为止。
3.如权利要求1所述的一种基于点云补全的点云配准方法,其特征是,分别提取特征的具体过程包括:利用点云动态图卷积网络模型对每一次采样的点云进行特征提取,所述点云动态图卷积网络模型提取点的邻域范围构成计算支持域,在所述支持域内通过多层感知机和池化层提取点云的局部信息;
将每一次采样的点云提取的局部信息拼接在一起,得到潜在映射,将潜在映射和全局高维特征拼接,获得表示点云全局和局部信息的高维特征图。
4.如权利要求1所述的一种基于点云补全的点云配准方法,其特征是,利用注意机制融合两个点云的特征的具体过程包括:构建生成器以生成虚拟点,构建判别器以对虚拟点和真实点云的相似度进行判别,生成器和判别器相互博弈,利用相似度符合要求的生成器来融合两个点云的特征。
5.如权利要求4所述的一种基于点云补全的点云配准方法,其特征是,所述生成器利用Transformer模型和单独的自注意力机制分别接收并处理两个点云的高维特征;将两者得到的特征向量进行拼接并经过再塑造操作改变维度之后,生成虚拟点;
所述判别器接收生成的虚拟点或真实点云数据,提取点云的高维特征,利用两个线性层进一步提取高维特征的特征,得到接收的点云是真实点云的概率,直至输出概率达到设定值,保留此时生成器的参数。
6.如权利要求1所述的一种基于点云补全的点云配准方法,其特征是,提取补全后的点云的高维特征时,先利用前一迭代周期的刚性变换参数将补全后的点云进行转换,并分别将转换后的源点云和目标点云经过点云动态图卷积网络模型进行点云高维特征的提取。
7.如权利要求1所述的一种基于点云补全的点云配准方法,其特征是,根据高维特征学习对方点云的位置信息,确定源点云中的每个点在目标点云中的对应点的具体步骤包括:
利用独立的Transformer模型接收补全后的点云的高维特征,学习对方点云的位置信息,经过Transformer模型之后获得向量
Figure 694377DEST_PATH_IMAGE010
Figure 679651DEST_PATH_IMAGE011
,对
Figure 927093DEST_PATH_IMAGE010
Figure 997817DEST_PATH_IMAGE011
相乘并进行softmax操作,以获得源点云中的每个点在目标点云中的对应概率矩阵,所述对应点为对应概率矩阵与目标完整点云点乘结果。
8.如权利要求1所述的一种基于点云补全的点云配准方法,其特征是,利用奇异值分解获得当前刚性变换参数的具体过程包括:确定补全之后的源点云和目标点云的质心,求对应各点云偏离所述质心的协方差矩阵,对协方差矩阵执行奇异值分解,根据奇异值分解得到的结果,计算旋转矩阵和平移向量,所述当前刚性变换参数为计算得到的旋转矩阵和平移向量。
9.一种基于点云补全的点云配准系统,其特征是,包括:
点云补全网络模块,被配置为对源点云和目标点云执行采样,分别提取特征,利用注意机制融合两个点云的特征,使两个点云的语义信息相互补全;
点云配准网络模块,被配置为提取补全后的点云的高维特征,根据高维特征学习对方点云的位置信息,确定源点云中的每个点在目标点云中的对应点,根据对应点,利用奇异值分解获得当前刚性变换参数,利用当前刚性变化参数实现源点云向目标点云的配准。
10.如权利要求9所述的一种基于点云补全的点云配准系统,其特征是,所述补全网络模块包括依次连接的生成器和判别器,所述生成器包括依次连接的最远点采样模块、点云动态图卷积网络模型模块、Transformer模型模块、拼接模块和再塑造模块;
所述Transformer模型模块与一单独的自注意力机制模块并联;
所述判别器包括依次连接的特征提取模块、两个线性层和判别模块;
所述点云配准网络模块包括依次连接的点云动态图卷积网络模型模块、Transformer模型模块、softmax函数模块和奇异值分解模块。
CN202210000497.1A 2022-01-04 2022-01-04 一种基于点云补全的点云配准方法及系统 Active CN114004871B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210000497.1A CN114004871B (zh) 2022-01-04 2022-01-04 一种基于点云补全的点云配准方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210000497.1A CN114004871B (zh) 2022-01-04 2022-01-04 一种基于点云补全的点云配准方法及系统

Publications (2)

Publication Number Publication Date
CN114004871A true CN114004871A (zh) 2022-02-01
CN114004871B CN114004871B (zh) 2022-04-15

Family

ID=79932616

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210000497.1A Active CN114004871B (zh) 2022-01-04 2022-01-04 一种基于点云补全的点云配准方法及系统

Country Status (1)

Country Link
CN (1) CN114004871B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114298946A (zh) * 2022-03-10 2022-04-08 武汉大学 一种框架细节增强的深度学习点云补全方法
CN114549608A (zh) * 2022-04-22 2022-05-27 季华实验室 点云融合方法、装置、电子设备及存储介质
CN114627017A (zh) * 2022-03-17 2022-06-14 南京航空航天大学 一种基于多层次注意力感知的点云去噪方法
CN114972654A (zh) * 2022-06-15 2022-08-30 清华大学 一种基于路侧点云补全的三维目标检测方法

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140132733A1 (en) * 2012-11-09 2014-05-15 The Boeing Company Backfilling Points in a Point Cloud
CN110941996A (zh) * 2019-11-04 2020-03-31 深圳市唯特视科技有限公司 一种基于生成对抗网络的目标及轨迹增强现实方法和系统
CN111079684A (zh) * 2019-12-24 2020-04-28 河南中原大数据研究院有限公司 一种基于粗糙-精细拟合的三维人脸检测方法
CN111882593A (zh) * 2020-07-23 2020-11-03 首都师范大学 结合注意力机制及三维图卷积网络的点云配准模型及方法
CN111899353A (zh) * 2020-08-11 2020-11-06 长春工业大学 一种基于生成对抗网络的三维扫描点云孔洞填补方法
CN112991187A (zh) * 2021-04-28 2021-06-18 四川大学 基于多空间相似度的卷积双胞胎点网络叶片轮廓拼接系统
CN113077501A (zh) * 2021-04-02 2021-07-06 浙江大学计算机创新技术研究院 一种基于特征学习的端到端点云配准方法
CN113139991A (zh) * 2021-05-13 2021-07-20 电子科技大学 一种基于重叠区域掩模预测的3d点云配准方法
CN113192112A (zh) * 2021-04-29 2021-07-30 浙江大学计算机创新技术研究院 一种基于学习采样的部分对应点云配准方法
CN113256543A (zh) * 2021-04-16 2021-08-13 南昌大学 一种基于图卷积神经网络模型的点云补全方法
CN113313835A (zh) * 2021-07-29 2021-08-27 深圳市数字城市工程研究中心 一种基于机载LiDAR点云的建筑物屋顶自动建模方法
CN113344992A (zh) * 2021-05-31 2021-09-03 山东大学 一种全局点云配准方法、系统、存储介质及设备
CN113379646A (zh) * 2021-07-07 2021-09-10 厦门大学 一种利用生成对抗网络进行稠密点云补全的算法
CN113538535A (zh) * 2021-07-15 2021-10-22 电子科技大学 一种基于双分支特征交互的3d点云配准网络模型及配准方法
CN113658236A (zh) * 2021-08-11 2021-11-16 浙江大学计算机创新技术研究院 一种基于图注意力机制的残缺点云配准方法
CN113706710A (zh) * 2021-08-11 2021-11-26 武汉大学 基于fpfh特征差异的虚拟点多源点云融合方法及系统
CN113838109A (zh) * 2021-11-30 2021-12-24 北京航空航天大学 一种低重合度点云配准方法

Patent Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103810744A (zh) * 2012-11-09 2014-05-21 波音公司 在点云中回填点
US20140132733A1 (en) * 2012-11-09 2014-05-15 The Boeing Company Backfilling Points in a Point Cloud
CN110941996A (zh) * 2019-11-04 2020-03-31 深圳市唯特视科技有限公司 一种基于生成对抗网络的目标及轨迹增强现实方法和系统
CN111079684A (zh) * 2019-12-24 2020-04-28 河南中原大数据研究院有限公司 一种基于粗糙-精细拟合的三维人脸检测方法
CN111882593A (zh) * 2020-07-23 2020-11-03 首都师范大学 结合注意力机制及三维图卷积网络的点云配准模型及方法
CN111899353A (zh) * 2020-08-11 2020-11-06 长春工业大学 一种基于生成对抗网络的三维扫描点云孔洞填补方法
CN113077501A (zh) * 2021-04-02 2021-07-06 浙江大学计算机创新技术研究院 一种基于特征学习的端到端点云配准方法
CN113256543A (zh) * 2021-04-16 2021-08-13 南昌大学 一种基于图卷积神经网络模型的点云补全方法
CN112991187A (zh) * 2021-04-28 2021-06-18 四川大学 基于多空间相似度的卷积双胞胎点网络叶片轮廓拼接系统
CN113192112A (zh) * 2021-04-29 2021-07-30 浙江大学计算机创新技术研究院 一种基于学习采样的部分对应点云配准方法
CN113139991A (zh) * 2021-05-13 2021-07-20 电子科技大学 一种基于重叠区域掩模预测的3d点云配准方法
CN113344992A (zh) * 2021-05-31 2021-09-03 山东大学 一种全局点云配准方法、系统、存储介质及设备
CN113379646A (zh) * 2021-07-07 2021-09-10 厦门大学 一种利用生成对抗网络进行稠密点云补全的算法
CN113538535A (zh) * 2021-07-15 2021-10-22 电子科技大学 一种基于双分支特征交互的3d点云配准网络模型及配准方法
CN113313835A (zh) * 2021-07-29 2021-08-27 深圳市数字城市工程研究中心 一种基于机载LiDAR点云的建筑物屋顶自动建模方法
CN113658236A (zh) * 2021-08-11 2021-11-16 浙江大学计算机创新技术研究院 一种基于图注意力机制的残缺点云配准方法
CN113706710A (zh) * 2021-08-11 2021-11-26 武汉大学 基于fpfh特征差异的虚拟点多源点云融合方法及系统
CN113838109A (zh) * 2021-11-30 2021-12-24 北京航空航天大学 一种低重合度点云配准方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HUANSHU WEI等: "《End-to-End 3D Point Cloud Learning for Registration Task Using Virtual Correspondences》", 《2020 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS (IROS)》 *
韦盛斌等: "《用于三维重建的点云单应性迭代最近点配准算法》", 《光学学报》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114298946A (zh) * 2022-03-10 2022-04-08 武汉大学 一种框架细节增强的深度学习点云补全方法
CN114298946B (zh) * 2022-03-10 2022-06-14 武汉大学 一种框架细节增强的深度学习点云补全方法
CN114627017A (zh) * 2022-03-17 2022-06-14 南京航空航天大学 一种基于多层次注意力感知的点云去噪方法
CN114549608A (zh) * 2022-04-22 2022-05-27 季华实验室 点云融合方法、装置、电子设备及存储介质
CN114972654A (zh) * 2022-06-15 2022-08-30 清华大学 一种基于路侧点云补全的三维目标检测方法

Also Published As

Publication number Publication date
CN114004871B (zh) 2022-04-15

Similar Documents

Publication Publication Date Title
CN114004871B (zh) 一种基于点云补全的点云配准方法及系统
CN111242199B (zh) 图像分类模型的训练方法及分类方法
CN107194378B (zh) 一种基于混合字典学习的人脸识别方法及装置
CN112464004A (zh) 一种多视角深度生成图像聚类方法
Doerr et al. Dimensionality reduction methods for molecular simulations
CN111401151B (zh) 一种精确的三维手部姿态估计方法
CN106530341A (zh) 一种保持局部拓扑不变性的点配准算法
CN109039721A (zh) 基于误差重构的节点重要性评估方法
Wang et al. Multi-features guidance network for partial-to-partial point cloud registration
CN114926742A (zh) 一种基于二阶注意力机制的回环检测及优化方法
CN115984339A (zh) 基于几何特征精炼与对抗生成网络的双管道点云补全方法
CN111429481A (zh) 一种基于自适应表达的目标追踪方法、装置及终端
CN114782503A (zh) 一种基于多尺度特征相似度约束的点云配准方法及系统
CN113257357B (zh) 蛋白质残基接触图预测方法
Wen et al. Cross-modality salient object detection network with universality and anti-interference
Huang et al. Incremental non-Gaussian inference for SLAM using normalizing flows
Mei Point cloud registration with self-supervised feature learning and beam search
Lang et al. Gaussian process for 6-DoF rigid motions
Yuan et al. Indirect point cloud registration: Aligning distance fields using a pseudo third point set
CN111161238A (zh) 图像质量评价方法及装置、电子设备、存储介质
CN115599984A (zh) 一种检索方法
Liu et al. Object detection via inner-inter relational reasoning network
Shi et al. Dual-graph hierarchical interaction network for referring image segmentation
CN116629356B (zh) 基于编码器和高斯混合模型的少样本知识图谱补全方法
Tarakanov et al. Identification of cellular automata by immunocomputing.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20230608

Address after: No. 6, 13th Floor, Building 8, No. 399, West Section of Fucheng Avenue, Chengdu High tech Zone, China (Sichuan) Pilot Free Trade Zone, Chengdu City, Sichuan Province, 610000

Patentee after: Sichuan Hongxue Jinlian Technology Group Co.,Ltd.

Address before: 250014, No. 27, Da Nan Road, Licheng District, Shandong, Ji'nan

Patentee before: SHANDONG University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230727

Address after: Room 303, Building 3, National University Science and Technology Park, Shizhong District, Jinan City, Shandong Province, 250000

Patentee after: Liangrui Artificial Intelligence (Jinan) Co.,Ltd.

Address before: No. 6, 13th Floor, Building 8, No. 399, West Section of Fucheng Avenue, Chengdu High tech Zone, China (Sichuan) Pilot Free Trade Zone, Chengdu City, Sichuan Province, 610000

Patentee before: Sichuan Hongxue Jinlian Technology Group Co.,Ltd.

TR01 Transfer of patent right