CN116128944A - 一种基于特征交互和可靠对应关系估计的三维点云配准方法 - Google Patents

一种基于特征交互和可靠对应关系估计的三维点云配准方法 Download PDF

Info

Publication number
CN116128944A
CN116128944A CN202310155735.0A CN202310155735A CN116128944A CN 116128944 A CN116128944 A CN 116128944A CN 202310155735 A CN202310155735 A CN 202310155735A CN 116128944 A CN116128944 A CN 116128944A
Authority
CN
China
Prior art keywords
point cloud
feature
point
dimensional
method based
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310155735.0A
Other languages
English (en)
Inventor
张海波
海琳琦
李若雪
吕哲
张顺利
耿国华
周明全
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NORTHWEST UNIVERSITY
Original Assignee
NORTHWEST UNIVERSITY
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NORTHWEST UNIVERSITY filed Critical NORTHWEST UNIVERSITY
Priority to CN202310155735.0A priority Critical patent/CN116128944A/zh
Publication of CN116128944A publication Critical patent/CN116128944A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y04INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
    • Y04SSYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
    • Y04S10/00Systems supporting electrical power generation, transmission or distribution
    • Y04S10/50Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于特征交互和可靠对应关系估计的三维点云配准方法,包括:步骤1,通过三维扫描仪获取模型多个视角的三维点云;步骤2,利用图神经网络提取两片点云的特征,后利用带有位置编码的Transformer网络对目标点云和源点云的特征进行聚合;步骤3,通过基于注意力机制的重叠掩码网络来识别两片点云间的重叠区域,提取关键点;步骤4,利用两片点云的形状特征和三维坐标特征分别计算匹配矩阵;步骤5,采用三角描述符来区分内联点和异常点,并结合SVD算法来估计源点云与目标点云之间的变化矩阵,完成三维点云的配准;本发明提供的配准方法在两片点云间部分重叠、包含大量噪声等情况下仍能快速精确地完成三维点云配准任务。

Description

一种基于特征交互和可靠对应关系估计的三维点云配准方法
技术领域
本发明涉及三维点云模型配准技术,具体涉及一种基于特征交互和可靠对应关系估计的三维点云配准方法。
背景技术
随着三维点云的快速发展,刚性点云配准在许多领域都是一项至关重要的任务,如三维重建、自动驾驶、物体姿态估计、文物数字保护等。它的目标是找到使两个给定点云对齐的刚性变换。然而,在使用激光雷达扫描仪获取点云数据时,通常也会引入大量的噪声和异常值。噪声和异常值会在计算中产生误差,严重影响后续中点云的局部特征估计,进而导致点云配准失败。因此,如何处理噪声和异常值,并在两点云之间找到良好的对应关系仍然是点云配准的关键任务。
目前,流行的配准方法大多是基于优化的传统配准方法,其中较为经典的方法是迭代最近点(Iterative Closest Point)算法。迭代最接近点(ICP)是应用最广泛的传统配准方法。该算法包括对应搜索和变换估计两个步骤,迭代交替求解点云配准问题。但ICP对噪声敏感,容易收敛到局部最优。因此,提出了一些ICP变体,通过改进匹配或搜索更大的姿态空间来提高性能。此外,还设计了一些具有复杂优化策略的传统配准方法。然而,上述方法的配准精度在处理初始位置差异大、噪声干扰强以及重叠程度小的场景时会急剧下降。
近年来,随着深度学习的快速发展,许多基于深度学习方法的点云配准工作受到越来越多的关注。然而以往的工作主要尝试设计复杂的神经网络来克服大量噪声、异常值和点云部分重叠的问题。然而,这些方法虽然性能优于传统方法,但对离群值的鲁棒性较差,不能很好地处理局部配准问题,并且这些复杂的结构设计会降低点云配准的效率。
发明内容
针对现有技术存在的不足,本发明的目的在于提供一种在面对大量异常值和点云间部分重叠时能快速且精确处理的基于特征交互和可靠对应关系估计的三维点云配准方法。
为了实现上述目的,本发明采用以下技术方案予以实现:
一种基于特征交互和可靠对应关系估计的三维点云配准方法,包括如下步骤:
步骤1,通过三维扫描仪获取模型多个视角的三维点云;
步骤2,利用图神经网络提取两片点云的特征,后利用带有位置编码的Transformer网络对目标点云和源点云的特征进行聚合;
步骤3,通过基于注意力机制的重叠掩码模块来识别两片点云间的重叠区域,并根据区域的显著性分数进一步采样点云中的关键点;
步骤4,利用两片点云的形状特征和三维坐标特征分别计算匹配矩阵;
步骤5,采用三角描述符来进一步区分内联点和异常点,并结合SVD算法来估计源点云与目标点云之间的变化矩阵,完成三维点云的配准。
优选的,所述步骤2中利用图神经网络提取两片点云的特征的过程包括:
采用三维坐标表示初始特征,采用K近邻搜索相邻点,用Ni表示中最接近xi点的K个点的集合,则计算GNN第n层的向量特征Fi表示为:
其中f和g分别表示单层多层感知器和两个隐层的MLP,并在每层MLP后使用BN和ReLU激活函数。
进一步的,将图神经网络的每层叠加5次,增加网络深度,每层输出特征的维数分别为64、64、128、256、512。
优选的,步骤2所述的位置编码网络由全连接层(FC)、sigmoid和ReLU激活组成,其处理过程和特征表示为:
PX=ReLU(FC(Sigmoid(FC(X))))
其中分别表示通过GNN学习源点云和目标点云特征,PX和PY表示学习到的位置编码;
通过Transformerφ对特征进行聚合,最终点云的特征可以表示为:
优选的,所述步骤3中两片点云间的重叠区域的识别过程包括:
基于注意力机制的重叠掩码模块使用一组通道交叉注意块在两个点云之间交换特征信息,通道交叉注意块输出特征的维数分别为512、256、512;
采用点云X和Y的两个特征向量作为对比度感知通道注意力的输入,然后将X的输入特征向量分为查询操作QX和值操作Vx
将Y的输入特征向量划分为一个键操作Ky和一个值操作Vy;将Qx和Ky相乘,再通过softmax函数得到交叉注意矩阵Axy和Ayx;最后,计算出两个点云X和Y的基于注意力的全局特征
优选的,点云中的关键点的采样过程包括:
使用一组大小为512、256、128、1的MLP的输出特征维数来估计两个点云的掩码,通过sigmoid层将深层特征转换为显著性评分,挑选Top K个关键点。
优选的,所述步骤4中两片点云的形状特征和三维坐标特征匹配矩阵计算过程包括:
点云关键点特征分别表示为fX(i)∈FX和fY(j)∈FY,则形状特征张量表示为:
三维点云坐标特征表示为cX(i)∈CX和cY(j)∈CY,则三维坐标张量表示为:
其中[;]表示拼接,[·]表示向量的模;
将两组具有BN和ReLU的MLP应用于三维坐标张量和关键点特征张量,得到坐标匹配矩阵和特征匹配矩阵;
最后,将两者相加得到融合匹配矩阵。
进一步的,用于获得所述的特征匹配矩阵的MLP输出的特征维度分别为256、128、128、1;
用于获得所述的坐标匹配矩阵的MLP输出的特征维度分别为32、32、32、1。
进一步的,所述步骤5中采用三角描述符来进一步区分内联点和异常点,并结合SVD算法来估计源点云与目标点云之间的变化矩阵的过程包括:
根据特征匹配矩阵M,选择Top p个点作为最终的代表点得到特征的相似矩阵M';
利用KNN搜索C'X中xi的采样点IdxX,并将IdxX与xi结合得到gX,利用对应矩阵M'映射得到gY,用gX和gY分别计算三角形的长度lX和lY,则误差Er(xi,yj)和{xi,yi}对应权值可计算为:
w(xi,yj)=2×sigmoid(-λEr(xi,yj))
其中min是取k个最小值的运算;λ是调整置信度估计的参数;
设置一个阈值τ来过滤对应关系,如果{xi,yi}对应的权值大于τ,则权重设为1,表明对应的三角形相似,该点对为内联点;否则,权重设置为0,表明该点对为离群点;
最后,将过滤后的对应关系结合奇异值分解(SVD)算法估计变换矩阵。
更进一步的,所述的阈值τ设置为0.6。
本发明与现有技术相比,具有如下技术效果:
本发明提出的三维点云配准网络模型由五个部分组成:点特征提取、关键点选取、匹配矩阵计算、可靠对应关系评估和奇异值分解(SVD);具体来说,在简单图神经网络(GNN)提取点特征后,利用带有位置编码网络的Transformer来丰富点特征;此外,通过基于注意机制的重叠掩码来识别重叠区域,并根据区域的显著分数进一步采样一些兴趣点;最后,为了找到可靠的对应点,提高配准精度,采用了三角描述符来进一步区分内值和异常值;为了加快点云配准的速度,在第一阶段引入关键点选择模块,检测重叠区域并学习判别特征;利用局部特征和坐标特征计算相应的匹配矩阵,并将其融合得到最终的匹配矩阵;然后,在第二阶段通过三角描述符获得较高的对应关系;这使得本发明构建的点云配准网络在点云包含大量噪声、异常值以及点云间部分重叠的情况下仍能快速和准确地完成三维点云配准。
附图说明
图1为本发明的流程图;
图2为点云配准网络模型图;
图3为带有位置编码的Transformer的结构示意图;
图4为基于注意力的关键点选择模块的结构示意图;
图5为可靠对应关系估计模块的结构;
图6为秦俑点云配准效果图。
具体实施方式
以下结合实施例对本发明的具体内容做进一步详细解释说明。
参照图1-5,本实施例提供一种基于特征交互和可靠对应关系估计的三维点云配准方法,包括如下步骤:
步骤1,通过三维扫描仪获取模型多个视角的三维点云;
步骤2,利用图神经网络(Graph Neural Network,GNN)提取两片点云的特征,后利用带有位置编码的Transformer网络对目标点云和源点云的特征进行聚合;其中为了识别相邻结构的特征,采用K近邻法(K Nearest Neighbors,KNN)搜索相邻点,用Ni表示中最接近xi点的K个点的集合,则计算GNN第n层的向量特征Fi为可以表示为
其中f和g分别表示单层多层感知器和两个隐层的MLP,并在每层MLP后使用BN和ReLU激活函数。利用点的三维坐标表示初始特征,将GNN网络的一层叠加5次,以增加网络深度,每层输出特征的维数分别为64、64、128、256、512。
位置编码网络由由全连接层(FC)、sigmoid和ReLU激活组成,用于来学习两云之间的关系;其处理过程和特征可以表示为:
PX=ReLU(FC(Sigmoid(FC(X))))
其中分别表示通过GNN学习源点云和目标点云特征,PX和PY表示学习到的位置编码。
通过Transformerφ对特征进行聚合,Transformer网络由几个堆叠的编码器和解码器层组成,其中编码器采用多头自注意机制,共享权重的MLP将特征编码到嵌入到特征空间中,该解码器主要利用一个多头交叉注意层来关联两个点云特征信息,最终点云的特征可以表示为:
步骤3,通过基于注意力机制的重叠掩码模块来识别两片点云间的重叠区域,并根据区域的显著性分数进一步采样点云中的关键点;其中首先使用一组通道交叉注意块在两个点云之间交换特征信息。通道注意输出特征的维数分别为512、256、512。采用点云X和Y的两个特征向量作为CCA块的输入。然后,我们将X的输入特征向量分为查询操作QX和值操作Vx。此外,我们还将Y的输入特征向量划分为一个键操作Ky和一个值操作Vy。将Qx和Ky相乘,再通过softmax函数得到交叉注意矩阵Axy和Ayx。最后,计算出两个点云X和Y的基于注意力的全局特征
最后使用一组大小为(512,256,128,1)的MLP来估计两个点云的掩码,通过sigmoid层将深层特征转换为显著性评分,显著性得分越高,说明该点更有可能位于两点云的重叠区域。我们保留显著性得分最高的K个点,丢弃其余的点。
步骤4,利用两片点云的形状特征和三维坐标特征分别计算匹配矩阵;其中点云关键点特征分别表示为fX(i)∈FX和fY(j)∈FY,三维点云坐标特征表示为cX(i)∈CX和cY(j)∈CY,则形状特征张量和三维坐标张量可以表示为:
其中[;]表示拼接,[·]表示向量的模,形状特征张量融合了距离和特征的相对方向,三维坐标张量包含了源点云的三维坐标、点间的距离和方向。
最后,为了得到坐标和特征匹配矩阵,将两组具有BN和ReLU的mlp应用于三维坐标张量和关键点特征张量。然后,为了获得正确匹配点的对应关系,将两者相加得到融合匹配矩阵M。其中用于获得特征匹配矩阵的MLP输出的特征维度分别为256、128、128、1;用于获得坐标匹配矩阵的MLP输出的特征维度分别为32、32、32、1。
步骤5,为了找到两片点云可靠的对应关系,采用三角描述符来进一步区分内联点和异常点,并结合SVD算法来估计源点云与目标点云之间的变化矩阵,完成三维点云的配准。其中,可以去除CX中一些没有显著特征的点,根据特征匹配矩阵M,选择Top p点作为最终的代表点 此外,得到了特征的相似矩阵M'。然后,为了进一步区分内联点和离群点,本发明采用三角描述符来捕获几何特征。通过判断两个三角形描述符的相似度来确定点之间的关系。如果{xi,yi}的对应关系是内联点对,则当{xi,yi}的置信值较高时,三角描述符将非常相似。首先利用KNN搜索C'X中xi的采样点IdxX,并将IdxX与xi结合得到gX。然后利用对应矩阵M'映射得到gY。然后用gX和gY分别计算三角形的长度lX和lY。最终误差Er(xi,yj)和{xi,yi}对应权值可计算为:
w(xi,yj)=2×sigmoid(-λEr(xi,yj))
其中min是取k个最小值的运算;λ是调整置信度估计的参数。
设置一个阈值τ来过滤对应关系,如果{xi,yi}对应的权值大于τ,则权重设为1,表明对应的三角形相似,该点对为内联点;否则,权重设置为0,表明该点对为离群点;经过多次测试,本实验中阈值τ设置为0.6时达到最好的配准效果。
最后,将过滤后的对应关系结合奇异值分解(SVD)算法估计变换矩阵。
图6通过本发明所述方法进行配准后的点云配准结果图。由图可知本发明所述方法针对点云间部分重叠、包含噪声时仍能鲁棒地处理。

Claims (10)

1.一种基于特征交互和可靠对应关系估计的三维点云配准方法,其特征在于,包括如下步骤:
步骤1,通过三维扫描仪获取模型多个视角的三维点云;
步骤2,利用图神经网络提取两片点云的特征,后利用带有位置编码的Transformer网络对目标点云和源点云的特征进行聚合;
步骤3,通过基于注意力机制的重叠掩码模块来识别两片点云间的重叠区域,并根据区域的显著性分数进一步采样点云中的关键点;
步骤4,利用两片点云的形状特征和三维坐标特征分别计算匹配矩阵;
步骤5,采用三角描述符来进一步区分内联点和异常点,并结合SVD算法来估计源点云与目标点云之间的变化矩阵,完成三维点云的配准。
2.如权利要求1所述的基于特征交互和可靠对应关系估计的三维点云配准方法,其特征在于,所述步骤2中利用图神经网络提取两片点云的特征的过程包括:
采用三维坐标表示初始特征,采用K近邻搜索相邻点,用Ni表示中最接近xi点的K个点的集合,则计算GNN第n层的向量特征Fi表示为:
其中f和g分别表示单层多层感知器和两个隐层的MLP,并在每层MLP后使用BN和ReLU激活函数。
3.如权利要求2所述的基于特征交互和可靠对应关系估计的三维点云配准方法,其特征在于,将图神经网络的每层叠加5次,增加网络深度,每层输出特征的维数分别为64、64、128、256、512。
4.如权利要求1或3所述的基于特征交互和可靠对应关系估计的三维点云配准方法,其特征在于,步骤2所述的位置编码网络由全连接层(FC)、sigmoid和ReLU激活组成,其处理过程和特征表示为:
PX=ReLU(FC(Sigmoid(FC(X))))
其中分别表示通过GNN学习源点云和目标点云特征,PX和PY表示学习到的位置编码;
通过Transformerφ对特征进行聚合,最终点云的特征可以表示为:
5.如权利要求1所述的基于特征交互和可靠对应关系估计的三维点云配准方法,其特征在于,所述步骤3中两片点云间的重叠区域的识别过程包括:
基于注意力机制的重叠掩码模块使用一组通道交叉注意块在两个点云之间交换特征信息,通道交叉注意块输出特征的维数分别为512、256、512;
采用点云X和Y的两个特征向量作为对比度感知通道注意力的输入,然后将X的输入特征向量分为查询操作QX和值操作Vx
将Y的输入特征向量划分为一个键操作Ky和一个值操作Vy。将Qx和Ky相乘,再通过softmax函数得到交叉注意矩阵Axy和Ayx,最后,计算出两个点云X和Y的基于注意力的全局特征
6.如权利要求1或5所述的基于特征交互和可靠对应关系估计的三维点云配准方法,其特征在于,点云中的关键点的采样过程包括:
使用一组大小为512、256、128、1的MLP的输出特征维数来估计两个点云的掩码,通过sigmoid层将深层特征转换为显著性评分,挑选Top K个关键点。
7.如权利要求1所述的基于特征交互和可靠对应关系估计的三维点云配准方法,其特征在于,所述步骤4中两片点云的形状特征和三维坐标特征匹配矩阵计算过程包括:
点云关键点特征分别表示为fX(i)∈FX和fY(j)∈FY,则形状特征张量表示为:
三维点云坐标特征表示为cX(i)∈CX和cY(j)∈CY,则三维坐标张量表示为:
其中[;]表示拼接,[·]表示向量的模;
将两组具有BN和ReLU的MLP应用于三维坐标张量和关键点特征张量,得到坐标匹配矩阵和特征匹配矩阵;
最后,将两者相加得到融合匹配矩阵。
8.如权利要求7所述的基于特征交互和可靠对应关系估计的三维点云配准方法,其特征在于,用于获得所述的特征匹配矩阵的MLP输出的特征维度分别为256、128、128、1;
用于获得所述的坐标匹配矩阵的MLP输出的特征维度分别为32、32、32、1。
9.如权利要求8所述的基于特征交互和可靠对应关系估计的三维点云配准方法,其特征在于,所述步骤5中采用三角描述符来进一步区分内联点和异常点,并结合SVD算法来估计源点云与目标点云之间的变化矩阵的过程包括:
根据特征匹配矩阵M,选择Top p个点作为最终的代表点得到特征的相似矩阵M';
利用KNN搜索C'X中xi的采样点IdxX,并将IdxX与xi结合得到gX,利用对应矩阵M'映射得到gY,用gX和gY分别计算三角形的长度lX和lY,则误差Er(xi,yj)和{xi,yi}对应权值可计算为:
w(xi,yj)=2×sigmoid(-λEr(xi,yj))
其中min是取k个最小值的运算;λ是调整置信度估计的参数;
设置一个阈值τ来过滤对应关系,如果{xi,yi}对应的权值大于τ,则权重设为1,表明对应的三角形相似,该点对为内联点;否则,权重设置为0,表明该点对为离群点;经过多次测试,本实验中阈值τ设置为0.6时达到最好的配准效果。
最后,将过滤后的对应关系结合奇异值分解(SVD)算法估计变换矩阵。
10.如权利要求9所述的基于特征交互和可靠对应关系估计的三维点云配准方法,其特征在于,所述的阈值τ设置为0.6。
CN202310155735.0A 2023-02-23 2023-02-23 一种基于特征交互和可靠对应关系估计的三维点云配准方法 Pending CN116128944A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310155735.0A CN116128944A (zh) 2023-02-23 2023-02-23 一种基于特征交互和可靠对应关系估计的三维点云配准方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310155735.0A CN116128944A (zh) 2023-02-23 2023-02-23 一种基于特征交互和可靠对应关系估计的三维点云配准方法

Publications (1)

Publication Number Publication Date
CN116128944A true CN116128944A (zh) 2023-05-16

Family

ID=86297361

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310155735.0A Pending CN116128944A (zh) 2023-02-23 2023-02-23 一种基于特征交互和可靠对应关系估计的三维点云配准方法

Country Status (1)

Country Link
CN (1) CN116128944A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117288094A (zh) * 2023-11-24 2023-12-26 太原理工大学 基于激光传感器的掘进机实时定位系统
CN117876447A (zh) * 2024-03-13 2024-04-12 南京邮电大学 一种基于微表面融合与对齐的三维点云配准方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117288094A (zh) * 2023-11-24 2023-12-26 太原理工大学 基于激光传感器的掘进机实时定位系统
CN117288094B (zh) * 2023-11-24 2024-01-26 太原理工大学 基于激光传感器的掘进机实时定位系统
CN117876447A (zh) * 2024-03-13 2024-04-12 南京邮电大学 一种基于微表面融合与对齐的三维点云配准方法
CN117876447B (zh) * 2024-03-13 2024-05-07 南京邮电大学 一种基于微表面融合与对齐的三维点云配准方法

Similar Documents

Publication Publication Date Title
Melekhov et al. Dgc-net: Dense geometric correspondence network
Li et al. Dual-resolution correspondence networks
CN108960140B (zh) 基于多区域特征提取和融合的行人再识别方法
Xu et al. Multimodal cross-layer bilinear pooling for RGBT tracking
CN108090919B (zh) 一种基于超像素光流和自适应学习因子改进的核相关滤波跟踪方法
CN104200495B (zh) 一种视频监控中的多目标跟踪方法
CN116128944A (zh) 一种基于特征交互和可靠对应关系估计的三维点云配准方法
CN112651262B (zh) 一种基于自适应行人对齐的跨模态行人重识别方法
CN111625667A (zh) 一种基于复杂背景图像的三维模型跨域检索方法及系统
Dusmanu et al. Multi-view optimization of local feature geometry
Liu et al. Pgfnet: Preference-guided filtering network for two-view correspondence learning
Xu et al. Iterative manifold embedding layer learned by incomplete data for large-scale image retrieval
CN117252904B (zh) 基于长程空间感知与通道增强的目标跟踪方法与系统
CN112084895B (zh) 一种基于深度学习的行人重识别方法
CN113129345A (zh) 一种基于多特征图融合和多尺度膨胀卷积的目标跟踪方法
CN117218343A (zh) 一种基于深度学习的语义部件姿态估计方法
Cai et al. HTMatch: An efficient hybrid transformer based graph neural network for local feature matching
CN113312973A (zh) 一种手势识别关键点特征提取方法及系统
CN110349176B (zh) 基于三重卷积网络和感知干扰学习的目标跟踪方法和系统
Wang et al. Attention weighted local descriptors
CN107291813B (zh) 基于语义分割场景的示例搜索方法
CN111626417B (zh) 一种基于无监督深度学习的闭环检测方法
CN116740480A (zh) 多模态图像融合目标跟踪方法
CN115631341A (zh) 一种基于多尺度特征投票的点云配准方法及系统
CN116311353A (zh) 基于特征融合的密集行人多目标跟踪方法、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination