CN110781920A - 一种室内场景点云部件语义信息的识别方法 - Google Patents
一种室内场景点云部件语义信息的识别方法 Download PDFInfo
- Publication number
- CN110781920A CN110781920A CN201910905116.2A CN201910905116A CN110781920A CN 110781920 A CN110781920 A CN 110781920A CN 201910905116 A CN201910905116 A CN 201910905116A CN 110781920 A CN110781920 A CN 110781920A
- Authority
- CN
- China
- Prior art keywords
- dimensional
- point cloud
- dimensional space
- semantic
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
Abstract
本发明涉及一种室内场景点云部件语义信息的识别方法,具体包括以下步骤:获取未知语义类别的三维激光点云数据放入已知类别的点云数据中,得到已知‑未知混淆的点云数据集;提取高维空间下点云数据集的全局特征;对高维空间下的全局特征进行降维处理;对降维后得到的集群进行聚类,获得低维空间下样本的簇集合;在低维空间聚类基础上,针对每个簇中的样本点,分别找到已知语义样本和未知语义样本,采用已知语义样本的类别信息,对未知语义样本进行语义赋值。与现有技术相比,本发明只需要利用少量的已知样本就能获得大批量对象点云的语义信息;本发明内存开销小,明显提高了计算效率,对计算机要求低。
Description
技术领域
本发明涉及测绘、智能机器人领域,尤其是涉及一种室内场景点云部件语义信息的识别方法。
背景技术
识别室内场景点云部件的语义信息,就是对传感器采集到的室内场景各个对象的点云数据进行结构分析,将类别语义信息分配到每个对象,也即室内场景对象的分类,这是理解三维场景的基本任务。在智能机器人、无人驾驶、实时定位与地图构建(SLAM)、测绘、室内高精度制图等技术中应用广泛。
现有的识别方法主要有两种:
一、基于传统方法的对象识别,主要采用手动形状描述符与机器学习分类器相结合的方法,针对特定的识别任务,提取三维图形的特征,通过支持向量机等机器学习的方法构造分类器进行分类。但是该方法的拓展性不强,只能适用于少量特定的数据集,难以适用于较大规模数据集,而且针对现实复杂场景的分类任务找到描述对象最合适的特征并不容易。
二、基于深度学习方法的对象识别,该方法使点云的识别精度大大提高,包括体素神经网络、多视角图卷积神经网络、深度神经网络学习和直接点云深度学习等场景特征构建和语义标注框架的点云深度学习系统,将开放的数据集作为训练样本,对特定场景和特定对象进行分割分类,与传统分类的方法相比,能提取到维度更大、信息更丰富的特征,在点云部件的识别上具有更好的表现。但是,深度学习的识别方法需要大量的样本数据进行训练,计算量大,对计算机和数据集要求高,且对于现实场景实测中点云的遮挡、动态目标干扰、物体叠置等现象,识别精度大大降低。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种室内场景点云部件语义信息的识别方法。
本发明的目的可以通过以下技术方案来实现:
一种室内场景点云部件语义信息的识别方法,具体包括以下步骤:
S1、获取未知语义类别的三维激光点云数据并入已知类别的点云数据中,得到已知-未知混淆的点云数据集;
S2、提取高维空间下点云数据集的全局特征,每个点云部件用一个1024维的全局特征向量表示,得到点云数据集的全局特征集合;
S3、对高维空间下的全局特征集合进行降维处理;
S4、对降维后得到的集群进行聚类,获得低维空间下样本的簇集合;
S5、针对每个簇集合中的样本点,分别找到已知语义样本和未知语义样本,采用已知语义样本的类别信息,对未知语义样本进行语义赋值。
进一步地,所述的步骤S2具体包括:
S21、构造全局特征提取的网络结构,输入点云数据集,通过三维空间变换矩阵进行输入点云数据对齐;
S22、对齐后的数据以点为单位,使用共享参数的多层感知机模型提取对象的64维空间特征,并通过特征空间变换矩阵进行特征对齐;
S23、利用多层感知机提取到对象的1024维的空间特征,在特征空间中使用最大池化层作为对称函数,提取到对象的1024维全局特征向量。
进一步地,所述的步骤S3具体包括:
S31、输入提取到的1024维的高维全局特征,在1024维空间下,计算不同样本之间的条件概率,来表征样本点之间的相似性;
S32、在低维空间中采用自由度为1的t分布,映射高维空间数据点;
S33、使用KL散度衡量高维与低维空间两概率分布的相似情况,使用高维空间数据点对与低维空间数据点对的联合概率分布来计算损失函数C。
进一步地,所述的步骤S31中,条件概率计算式为:
其中,pi|j表示高维样本点xi与xj之间条件概率分布,且分布函数服从高斯分布,pi|j越大,样本点之间的相似度越高,σi是高斯分布标准差。
进一步地,所述的步骤S32中,低维空间中表征相似性的条件概率公式为:
其中,qi|j表示与高维数据点xi与xj成映射关系的低维数据点yi与yj之间的条件概率分布。
进一步地,所述的步骤S33中,损失函数C的表达式为:
梯度计算公式为:
其中,P、Q分别表示以高维和低维空间样本的相似度,pij表示高维样本点xi与xj之间联合概率分布,qij表示与高维数据点xi与xj成映射关系的低维数据点yi与yj之间的联合概率分布。
进一步地,所述的步骤S4中,使用基于密度的空间聚类方法进行聚类,将一定密度的对象聚成一簇,使得同一簇内对象间的特征尽可能相似,不同簇间对象的差异性最大。
与现有技术相比,本发明具有以下优点:
1、本发明通过将未知语义类别的三维激光点云数据和已知类别的点云数据共同进行全局特征的提取,针对提取的高维全局特征进行降维和聚类,然后用同一簇中的已知类别的点云数据的语义信息对未知语义类别的点云数据赋值,识别准确度更高;同时,本发明只需要利用少量的已知样本就能获得大量对象点云的语义信息,明显提高了计算效率,减少了内存开销,对计算机要求低,减少样本采集工作量。
2、本发明采用在高维空间中使用高斯分布刻画点云对象之间的相似性,在其对应的低维空间中使用t分布表征相似性,不断优化调整低维空间中的数据点直至损失函数收敛的降维方法。这一方法能够在低维空间中更好的表征高维特征,捕捉高维数据大部分局部结构的同时保留全局结构,可视化效果好,避免低维空间下的样本拥挤问题。此外,低维空间中使用t分布可提高不同样本之间的可分性。
3、本发明基于密度对特征降维后的点云数据进行聚类,将一定密度的对象聚成一簇,使得同一簇内对象间的特征尽可能相似,不同簇间对象的差异性最大。这一聚类方法,在环形、月牙形、条形和球形数据上都能取得较好的效果,且聚类效率高的同时能够过滤离群点。
附图说明
图1为本发明的流程示意图。
图2为全局特征提取步骤示意图。
图3为低维空间的样本分布示意图。
图4为低维空间的样本聚类分布示意图。
图5为本发明的识别结果示意图。
图6为办公场景点云语义识别结果精度示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
如图1所示,本实施例提供了一种室内场景点云部件语义信息的识别方法。采用的数据均为室内场景的部件点云,用少量的已知类别的室内场景对象的点云数据作为样本,为大批量未知类别的对象点云数据进行语义赋值。主要分如下几个步骤:
步骤S1、在获取的大批量未知语义类别的三维激光点云数据中放入少量已知类别的点云数据,得到已知-未知混淆的点云数据集。
步骤S2、构造全局特征提取的网络结构,提取高维空间下点云数据集的全局特征,具体如图2所示。对室内场景某一对象采集N个点,得到N×3的点云数据,先通过数据对齐函数以及多层感知机得到N个64维特征,再通过多层感知机和最大池化函数得到该对象的1×1024全局特征。
步骤S21、输入原始三维点云数据集,通过三维空间变换矩阵实现输入点云数据对齐;
步骤S22、对齐后的数据以点为单位,使用共享参数的多层感知机模型提取点云对象的64维空间特征,并通过特征空间变换矩阵进行特征对齐;
步骤S23、再次利用多层感知机提取到对象的1024维的空间特征,在特征空间中使用最大池化层作为对称函数,提取到对象的1024维全局特征向量。
步骤S3、对高维空间下的全局特征进行降维处理。
步骤S31、输入提取到的1024维的高维全局特征,在1024维空间下,计算不同样本之间的条件概率,来表征样本点之间的相似性;条件概率计算式为:
其中,pi|j表示高维样本点xi与xj之间条件概率分布,且分布函数服从高斯分布,pi|j越大,样本点之间的相似度越高,σi是高斯分布标准差。
步骤S32、在低维空间(一般为二维)中采用自由度为1的t分布,映射高维空间数据点。高维数据点xi与xj在低维空间中的映射点为yi与yj。低维空间中表征相似性的条件概率公式为:
其中,qi|j表示与高维数据点xi与xj成映射关系的低维数据点yi与yj之间的条件概率分布。
步骤S33、使用KL散度衡量高维与低维空间两概率分布的相似情况,使用高维空间数据点对与低维空间数据点对的联合概率分布来计算损失函数C。
损失函数C的表达式为:
梯度计算公式为:
其中,P、Q分别表示以高维和低维空间样本的相似度,pij表示高维样本点xi与xj之间联合概率分布,qij表示与高维数据点xi与xj成映射关系的低维数据点yi与yj之间的联合概率分布。
损失函数C使得高维与低维空间两个概率分布之间的KL距离最小化。在计算过程中,利用梯度下降的方法迭代更新。当函数值收敛时,表示低维空间的向量特征分布与高维空间匹配度最高,高维特征已经降维至低维空间。如图3所示,在室内办公场景下,得到已知-未知混淆点云数据集,由于使用了t分布,使得点云数据集的高维特征在二维空间中表现为6种不同的集群,集群之间有明显的可分性,同一集群之间相似性高,不同集群之间相似性低。其中,黑色星号表示已知类别的点云数据,灰色圆点表示未知类别的点云数据。
步骤S4、对降维后得到的集群,使用基于密度的空间聚类方法(DBSCAN)进行聚类,获得低维空间下样本的簇集合。如图4所示,在办公场景中对特征降维后的点云数据集进行基于密度的聚类,得到了6个簇,每个簇中仅有少量的已知类别点云数据和大量的未知类别点云数据。
步骤S5、在低维空间聚类基础上,针对每个簇集合中的样本点,分别找到已知语义样本和未知语义样本,采用已知语义样本的类别信息,对未知语义样本进行语义赋值。
在室内的办公场景中,使用少量的已知类别点云对象:茶杯、书柜、笔记本电脑、键盘、椅子和办公桌为大量未知点云语义赋值的结果见图5。针对聚类后得到的6个簇,将每一簇中已知类别点云数据的语义信息提取出来,为该簇中大量未知类别的点云数据进行语义赋值,结果的精度如图6中的表格所示,可见利用本专利方法后,室内场景点云部件分类精度较高。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。
Claims (7)
1.一种室内场景点云部件语义信息的识别方法,其特征在于,具体包括以下步骤:
S1、获取未知语义类别的三维激光点云数据并入已知类别的点云数据中,得到已知-未知混淆的点云数据集;
S2、提取高维空间下点云数据集的全局特征,每个点云部件用一个1024维的全局特征向量表示,得到点云数据集的全局特征集合;
S3、对高维空间下的全局特征集合进行降维处理;
S4、对降维后得到的集群进行聚类,获得低维空间下样本的簇集合;
S5、针对每个簇集合中的样本点,分别找到已知语义样本和未知语义样本,采用已知语义样本的类别信息,对未知语义样本进行语义赋值。
2.根据权利要求1所述的一种室内场景点云部件语义信息的识别方法,其特征在于,所述的步骤S2具体包括:
S21、构造全局特征提取的网络结构,输入点云数据集,通过三维空间变换矩阵进行输入点云数据对齐;
S22、对齐后的数据以点为单位,使用共享参数的多层感知机模型提取对象的64维空间特征,并通过特征空间变换矩阵进行特征对齐;
S23、利用多层感知机提取到对象的1024维的空间特征,在特征空间中使用最大池化层作为对称函数,提取到对象的1024维全局特征向量。
3.根据权利要求2所述的一种室内场景点云部件语义信息的识别方法,其特征在于,所述的步骤S3具体包括:
S31、输入提取到的1024维的高维全局特征,在1024维空间下,计算不同样本之间的条件概率,来表征样本点之间的相似性;
S32、在低维空间中采用自由度为1的t分布,映射高维空间数据点;
S33、使用KL散度衡量高维与低维空间两概率分布的相似情况,使用高维空间数据点对与低维空间数据点对的联合概率分布来计算损失函数C。
7.根据权利要求1所述的一种室内场景点云部件语义信息的识别方法,其特征在于,所述的步骤S4中,使用基于密度的空间聚类方法进行聚类,将一定密度的对象聚成一簇,使得同一簇内对象间的特征尽可能相似,不同簇间对象的差异性最大。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910905116.2A CN110781920B (zh) | 2019-09-24 | 2019-09-24 | 一种室内场景点云部件语义信息的识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910905116.2A CN110781920B (zh) | 2019-09-24 | 2019-09-24 | 一种室内场景点云部件语义信息的识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110781920A true CN110781920A (zh) | 2020-02-11 |
CN110781920B CN110781920B (zh) | 2022-09-16 |
Family
ID=69383768
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910905116.2A Active CN110781920B (zh) | 2019-09-24 | 2019-09-24 | 一种室内场景点云部件语义信息的识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110781920B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111339973A (zh) * | 2020-03-03 | 2020-06-26 | 北京华捷艾米科技有限公司 | 一种对象识别方法、装置、设备及存储介质 |
CN111915730A (zh) * | 2020-07-20 | 2020-11-10 | 北京建筑大学 | 一种顾及语义从点云自动生成室内三维模型的方法及系统 |
CN112180916A (zh) * | 2020-09-17 | 2021-01-05 | 北京理工大学 | 一种适应复杂环境的家庭服务机器人智能导航算法 |
CN113516663A (zh) * | 2021-06-30 | 2021-10-19 | 同济大学 | 点云语义分割方法及装置、电子设备及存储介质 |
CN114549917A (zh) * | 2022-02-28 | 2022-05-27 | 东南大学 | 一种数据表征增强的点云分类方法 |
CN115273645A (zh) * | 2022-08-09 | 2022-11-01 | 南京大学 | 一种室内面要素自动聚类的地图制图方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8527432B1 (en) * | 2008-08-08 | 2013-09-03 | The Research Foundation Of State University Of New York | Semi-supervised learning based on semiparametric regularization |
CN106355194A (zh) * | 2016-08-22 | 2017-01-25 | 广东华中科技大学工业技术研究院 | 一种基于激光成像雷达的无人艇水面目标处理方法 |
CN107563443A (zh) * | 2017-09-05 | 2018-01-09 | 云南大学 | 一种自适应的半监督密度聚类方法及系统 |
WO2018102190A1 (en) * | 2016-11-29 | 2018-06-07 | Blackmore Sensors and Analytics Inc. | Method and system for classification of an object in a point cloud data set |
CN109409394A (zh) * | 2018-07-19 | 2019-03-01 | 中国矿业大学 | 一种基于半监督聚类的cop-kmeans方法与系统 |
CN109470686A (zh) * | 2018-11-19 | 2019-03-15 | 北京理工大学 | 一种基于半监督学习的激光诱导击穿光谱分类识别方法 |
CN109657087A (zh) * | 2018-11-30 | 2019-04-19 | 平安科技(深圳)有限公司 | 一种数据批量标注方法、装置及计算机可读存储介质 |
US20190138786A1 (en) * | 2017-06-06 | 2019-05-09 | Sightline Innovation Inc. | System and method for identification and classification of objects |
CN109740628A (zh) * | 2018-12-03 | 2019-05-10 | 深圳市华讯方舟太赫兹科技有限公司 | 点云聚类方法、图像处理设备及具有存储功能的装置 |
-
2019
- 2019-09-24 CN CN201910905116.2A patent/CN110781920B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8527432B1 (en) * | 2008-08-08 | 2013-09-03 | The Research Foundation Of State University Of New York | Semi-supervised learning based on semiparametric regularization |
CN106355194A (zh) * | 2016-08-22 | 2017-01-25 | 广东华中科技大学工业技术研究院 | 一种基于激光成像雷达的无人艇水面目标处理方法 |
WO2018102190A1 (en) * | 2016-11-29 | 2018-06-07 | Blackmore Sensors and Analytics Inc. | Method and system for classification of an object in a point cloud data set |
US20190138786A1 (en) * | 2017-06-06 | 2019-05-09 | Sightline Innovation Inc. | System and method for identification and classification of objects |
CN107563443A (zh) * | 2017-09-05 | 2018-01-09 | 云南大学 | 一种自适应的半监督密度聚类方法及系统 |
CN109409394A (zh) * | 2018-07-19 | 2019-03-01 | 中国矿业大学 | 一种基于半监督聚类的cop-kmeans方法与系统 |
CN109470686A (zh) * | 2018-11-19 | 2019-03-15 | 北京理工大学 | 一种基于半监督学习的激光诱导击穿光谱分类识别方法 |
CN109657087A (zh) * | 2018-11-30 | 2019-04-19 | 平安科技(深圳)有限公司 | 一种数据批量标注方法、装置及计算机可读存储介质 |
CN109740628A (zh) * | 2018-12-03 | 2019-05-10 | 深圳市华讯方舟太赫兹科技有限公司 | 点云聚类方法、图像处理设备及具有存储功能的装置 |
Non-Patent Citations (3)
Title |
---|
CHARLES R. QI ET AL: "PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation", 《ARXIV:1612.00593V1》 * |
JIN YUAN,ET AL: "Semi-supervised learning and condition fusion for fault diagnosis", 《MECHANICAL SYSTEMS AND SIGNAL PROCESSING》 * |
袁利永: "一种改进的半监督K-Means聚类算法", 《计算机工程与科学 》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111339973A (zh) * | 2020-03-03 | 2020-06-26 | 北京华捷艾米科技有限公司 | 一种对象识别方法、装置、设备及存储介质 |
CN111915730A (zh) * | 2020-07-20 | 2020-11-10 | 北京建筑大学 | 一种顾及语义从点云自动生成室内三维模型的方法及系统 |
CN111915730B (zh) * | 2020-07-20 | 2023-05-19 | 北京建筑大学 | 一种顾及语义从点云自动生成室内三维模型的方法及系统 |
CN112180916A (zh) * | 2020-09-17 | 2021-01-05 | 北京理工大学 | 一种适应复杂环境的家庭服务机器人智能导航算法 |
CN113516663A (zh) * | 2021-06-30 | 2021-10-19 | 同济大学 | 点云语义分割方法及装置、电子设备及存储介质 |
CN114549917A (zh) * | 2022-02-28 | 2022-05-27 | 东南大学 | 一种数据表征增强的点云分类方法 |
CN114549917B (zh) * | 2022-02-28 | 2024-04-16 | 东南大学 | 一种数据表征增强的点云分类方法 |
CN115273645A (zh) * | 2022-08-09 | 2022-11-01 | 南京大学 | 一种室内面要素自动聚类的地图制图方法 |
CN115273645B (zh) * | 2022-08-09 | 2024-04-09 | 南京大学 | 一种室内面要素自动聚类的地图制图方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110781920B (zh) | 2022-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110781920B (zh) | 一种室内场景点云部件语义信息的识别方法 | |
CN109410321B (zh) | 基于卷积神经网络的三维重建方法 | |
Lee et al. | Self-attention graph pooling | |
CN108491880B (zh) | 基于神经网络的物体分类和位姿估计方法 | |
CN109190524B (zh) | 一种基于生成对抗网络的人体动作识别方法 | |
CN104599275B (zh) | 基于概率图模型的非参数化的rgb-d场景理解方法 | |
CN110222580B (zh) | 一种基于三维点云的人手三维姿态估计方法和装置 | |
CN111625667A (zh) | 一种基于复杂背景图像的三维模型跨域检索方法及系统 | |
CN106844620B (zh) | 一种基于视图的特征匹配三维模型检索方法 | |
CN111027140B (zh) | 基于多视角点云数据的飞机标准件模型快速重构方法 | |
CN109035329A (zh) | 基于深度特征的相机姿态估计优化方法 | |
CN110969648A (zh) | 一种基于点云序列数据的3d目标跟踪方法及系统 | |
WO2022062419A1 (zh) | 基于非督导金字塔相似性学习的目标重识别方法及系统 | |
CN111985367A (zh) | 一种基于多尺度特征融合的行人重识别特征提取方法 | |
CN113538218B (zh) | 基于位姿自监督对抗生成网络的弱配对图像风格迁移方法 | |
CN110334584A (zh) | 一种基于区域全卷积网络的手势识别方法 | |
Huang et al. | Unsupervised point cloud registration by learning unified gaussian mixture models | |
CN113361636A (zh) | 一种图像分类方法、系统、介质及电子设备 | |
Chen et al. | Full transformer framework for robust point cloud registration with deep information interaction | |
CN112801945A (zh) | 基于双重注意力机制特征提取的深度高斯混合模型颅骨配准方法 | |
CN110490915B (zh) | 一种基于卷积受限玻尔兹曼机的点云配准方法 | |
Li et al. | Fast recognition of pig faces based on improved Yolov3 | |
CN112669452B (zh) | 一种基于卷积神经网络多分支结构的物体定位方法 | |
CN111582449B (zh) | 一种目标域检测网络的训练方法、装置、设备及存储介质 | |
CN116245944B (zh) | 一种基于实测数据的舱段自动化对接方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |