CN109272021B - 一种基于宽度学习的智能移动机器人导航方法 - Google Patents
一种基于宽度学习的智能移动机器人导航方法 Download PDFInfo
- Publication number
- CN109272021B CN109272021B CN201810961408.3A CN201810961408A CN109272021B CN 109272021 B CN109272021 B CN 109272021B CN 201810961408 A CN201810961408 A CN 201810961408A CN 109272021 B CN109272021 B CN 109272021B
- Authority
- CN
- China
- Prior art keywords
- width learning
- nodes
- feature
- output
- mapping
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种基于宽度学习的智能移动机器人导航方法,提出通过宽度学习框架,对图像进行聚类问题的阐述,以此来解决智能移动机器人导航中回环检测的问题;再提出通过距离矩阵特征值的方法,对图像空间关系的描述,进一步对回环检测进行检验。本发明与现有技术相比,使用宽度学习进行离线的训练,使得整个回环检测的稳定性以及准确性得到提高,以此来提高智能移动机器人导航的高效性和准确性;另外,在回环检测中加入位置化特性,通过计算距离矩阵以及其特征值,用来对图像空间关系进行描述,从而进一步对回环检测进行检验。本发明中的这两大特征使得整个系统的准确性得到显著的提高。
Description
技术领域
本发明涉及神经网络及视觉SLAM领域,更具体地,涉及一种基于宽度学习的智能移动机器人导航方法
背景技术
智能移动机器人导航中SLAM的运用越来越广泛,SLAM是SimultaneousLocalization and Mappong的缩写,中文译作“同时定位与地图构建”。它指搭载特定传感器的主体,在没有环境先验信息的情况下,于运动过程中建立环境的模型,同时估计自己的运动。如果这里的传感器主要为相机,那就称为“视觉 SLAM”。
SLAM最早于1988年提出,最开始的时候用于描述机器人在未知环境的未知地点中同步的进行地图构建和自身定位。机器人通过传感器获取的环境数据对位置环境进行地图的建立,然后根据在运动中观测到的环境特征与地图中的特征进行匹配从而进行自身的定位以及地图的建立。
在经典视觉SLAM框架中,主要由传感器数据、视觉里程计、后端优化、回环检测、最终建图,这些方面主城。其中回环检测方面,现在通常是采用BOW (Bag-of-Words)的方法,这个方法的目的是用“图像上有哪几种特征”来描述一副图像。例如,某张图片中有一个人、一辆车;而另外一张图中有两个人、一只狗。具体要做的就是确定“人”“车”“狗”等概念,对应BOW的“单词”。然后用单词出现的情况进行比较,判断相似度来看看有没有达到回环。
BOW方法在实际中需要人为的设定一些字典,并且在准确性上相对于机器学习来说并不高。并且回环检测说到底就是聚类的问题,而此类问题在机器学习方面已经得到了很好的解决,所以在未来,机器学习方法将有希望打败这些人工设计特征的方法,成为回环检测的主流方法,在物体识别问题方面上已经明显不如神经网络了,而回环检测又是及其相似的问题。
传统的智能移动机器人导航中的视觉SLAM算法主要由传感器数据、前端视觉里程计、后端优化、回环检测、建图这五大部分组成。其中回环检测的问题现在通常是使用BOW这类算法来解决,但它有着准确性不高以及人为设定的缺陷,相对与机器学习而言,效果并不好。并且机器学习在解决这类聚类问题方面的成就已经得到了充分的证明,所以机器学习代替BOW这类算法成为主流回环检测方法将是一大趋势。
发明内容
本发明的目的为解决上述一个或多个缺陷,提出一种基于宽度学习的智能移动机器人导航方法。
为实现以上发明目的,采用的技术方案是:
一种基于宽度学习的智能移动机器人导航方法,包括以下步骤:
S1:提出通过宽度学习框架,对图像进行聚类问题的阐述,以此来解决智能移动机器人导航中回环检测的问题;
S2:提出通过距离矩阵特征值的方法,对图像空间关系的描述,进一步对回环检测进行检验。
优选的是,步骤S1包括以下步骤:
S1.1:使用RGB-D摄像头获取RGB信息以及深度的信息,将采集到的数据集的样本分成多个同等份的小数据集,把这些小数据集称为包;此分组为随机平分,所述包的数量是固定的且根据数据集的总数决定;
S1.2:分组完成后,对每个包贴上相应的聚类标签,以作为每个聚类的区分和识别;
S1.3:将数据信息整理成向量的形式,把此向量看作X,并作为输入放入宽度学习的输入层;同时在数据进入宽度学习系统前,对每个包的数据分别计算均值,作为相应的聚类分组的聚类中心;
S1.4:在步骤S1.3中得到的向量X作为输入,进入宽度学习系统,首先通过映射获得n组特征节点,其中每组特征节点含有p个节点,所述n组映射每组映射的激励函数不同,再利用稀疏自编码器训练更新特征映射过程的权值和阈值;此步的映射方程为
R=φi(X*wRi+βRi)
其中wRi为输入到特征节点之间的权重,βRi为给定的阈值;
S1.5:通过步骤S1.4中得到的特征节点,映射出m个增量节点H,映射方程为
其中wHi为特征节点到增量节点之间的权重,βHi为给定的阈值;
S1.6:通过得到的特征节点以及增量节点,使用超限学习(ELM)的方法获得输出Y,其中特征节点以及增量节点这层到输出层的权值定义为Wall;
S1.7:在得到宽度学习的输出Y之后,对输出值进行处理,计算输出值数据离各个聚类中心的距离D,最后将此输出Y划分到距离D最小的相应聚类中心里,以此重新得到了多个包;
S1.8:处理完所有输出值后,对各个包的数据计算均值,重新得到每个聚类组类的新聚类中心;
S1.9:将宽度学习得到的输出作为输入放入宽度学习系统里,然后重复步骤 S1.4至步骤S1.8的操作进行迭代处理,当聚类中心不再变化或显现出小变化时,停止迭代的操作,得到最终的多个包以及每个包对应的聚类中心;
S1.10:将第A帧图像聚类与第B帧图像聚类的每个中心进行对比,规定A、 B在全部帧中随机取,且A+1<B,当最终聚类中心的对比在误差范围之内,并达到了一定的数量时,便看作是达到了回环的效果。
优选的是,步骤S2包括以下步骤:
S2.1:在中通过RGBD相机得到数据的同时,对此时得到的像素平面进行位置化处理,给定每个像素(x,y)位置信息,x轴为横向,y轴为纵向;
S2.2:对步骤S1.9中得到的多个包分别进行位置化的均值处理,得到位置中心Ci(i=1,...,t)(位置心中的数量即跟包的数量一致,标定为t);
S2.3:计算t个中心两两之间的距离dij,为
式中θij表示位置Ci、Cj相连线段与水平线的夹角,此夹角恒为锐角;将两两中心的距离dij组成距离矩阵Mij,然后求Mij的t个特征值λi(i=1,...,t),并对特征值进行归一化处理,其中所述归一化处理包括将各个分量除以t个特征值的均方差或除以t个特征值所组成的向量的范数。
与现有技术相比,本发明的有益效果是:
本发明与现有技术相比,使用宽度学习进行离线的训练,使得整个回环检测的稳定性以及准确性得到提高,以此来提高智能移动机器人导航的高效性和准确性。并且因为宽度学习的特性,相比于其他的机器学习来说所需要训练的时间更加少,所以整个系统也不会很费时;另外,在回环检测中加入位置化特性,通过计算距离矩阵以及其特征值,用来对图像空间关系进行描述,从而进一步对回环检测进行检验。本发明中的这两大特征使得整个系统的准确性得到显著的提高。
附图说明
图1为本发明的流程图;
图2为本发明的宽度学习网络框架图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
以下结合附图和实施例对本发明做进一步的阐述。
实施例1
一种基于宽度学习的智能移动机器人导航方法,请参考图1,步骤流程如下:
(1)使用RGB-D摄像头获取RGB信息以及深度的信息,将采集到的数据集的样本分成多个同等份的小数据集,把这些小数据集称为包,此分组是随机平分的,包的数量取9;
(2)分组完成后,对每个包贴上相应的聚类标签。以作为每个聚类的区分和识别。并将数据信息整理成向量的形式,把此向量看作X,并作为输入放入宽度学习的输入层。同时,在数据进入宽度学习系统时,对每个包的数据分别计算均值,作为相应的聚类分组的聚类中心;
(3--5)是宽度学习系统的框架。
(3)在S1.3中得到的向量X看作输入,进入宽度学习系统,首先通过映射获得n组特征节点,其中每组特征节点含有p个节点(这里的n组映射每组映射的激励函数可以不同),再利用稀疏自编码器训练更新特征映射过程的权值和阈值。此步的映射方程是R=φi(X*wRi+βRi),其中wRi是输入到特征节点之间的权重,βRi是给定的阈值。
(4)通过S1.4中得到的特征节点,映射出m个增量节点H,这个增量节点与特征节点在同一层网络中如图2所示。此步的映射方程是其中wHi是特征节点到增量节点之间的权重,βHi是给定的阈值。其中增量节点映射过程的权值和阈值是随机生成的但一旦随机生成后就固定不变。
(5)通过得到的特征节点以及增量节点,使用超限学习(ELM)的方法获得输出Y,其中特征节点以及增量节点这层到输出层的权值定义为Wall。
(6)在得到宽度学习的输出Y之后,对输出值进行处理,计算输出值数据离各个聚类中心的距离D,最后将此输出Y划分到距离D最小的相应聚类中心里,以此重新得到了多个包。
(7)处理完所有输出值后,对各个包的数据计算均值,重新得到每个聚类组类的新聚类中心。
(8)将宽度学习得到的输出作为输入放入宽度学习系统里,然后重复(3) 至(7)的操作进行迭代处理,当聚类中心不再变化或显现出小变化时,停止迭代的操作,得到最终的多个包以及每个包对应的聚类中心。
另一方面,对图像位置化处理,并计算两两之间包的距离矩阵以及其特征值:
(9)在S1的S1.1中通过RGBD相机得到数据的同时,对此时得到的像素平面进行位置化处理,给定每个像素(x,y)位置信息,x轴为横向,y轴为纵向。
(10)对S1的S1.9中得到的多个包分别进行位置化的均值处理,得到位置中心(i=1,...,9)(位置心中的数量即跟包的数量一致,标定为9)。
(11)计算9个中心两两之间的距离其中θij表示位置Ci、Cj相连线段与水平线的夹角,并通过距离dij组成距离矩阵Mij,然后求Mij的9个特征值λi(i=1,...,9)。为了保证所提取的特征具有缩放不变性,对特征值进行归一化处理。归一化处理的方法是将各个分量除以9个特征值的均方差。
最终,判断图像是否达到回环:
(12)将第A帧图像聚类与第B帧图像聚类的每个中心进行对比(规定A、 B在全部帧中随机取,且A+1<B),并且将这两帧图像得到的特征值分别进行对比。当最终聚类中心的对比在误差范围之内,并达到了一定的数量,而且两帧图像特征值之间的差值也在误差范围之内时,便看作是达到了回环的效果。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (2)
1.一种基于宽度学习的智能移动机器人导航方法,其特征在于,包括以下步骤:
S1:提出通过宽度学习框架,对图像进行聚类问题的阐述,以此来解决智能移动机器人导航中回环检测的问题;
S2:提出通过距离矩阵特征值的方法,对图像空间关系的描述,进一步对回环检测进行检验;
步骤S1包括以下步骤:
S1.1:使用RGB-D摄像头获取RGB信息以及深度的信息,将采集到的数据集的样本分成多个同等份的小数据集,把这些小数据集称为包;此分组为随机平分,所述包的数量是固定的且根据数据集的总数决定;
S1.2:分组完成后,对每个包贴上相应的聚类标签,以作为每个聚类的区分和识别;
S1.3:将数据信息整理成向量的形式,把此向量看作X,并作为输入放入宽度学习的输入层;同时在数据进入宽度学习系统前,对每个包的数据分别计算均值,作为相应的聚类分组的聚类中心;
S1.4:在步骤S1.3中得到的向量X作为输入,进入宽度学习系统,首先通过映射获得n组特征节点,其中每组特征节点含有p个节点,所述n组映射每组映射的激励函数不同,再利用稀疏自编码器训练更新特征映射过程的权值和阈值;此步的映射方程为:
R=φi(X*wRi+βRi)
其中wRi为输入到特征节点之间的权重,βRi为给定的阈值,R为特征节点,即为传统神经网络中的特征输出节点,φi表示第i组特征节点映射的激励函数;
S1.5:通过步骤S1.4中得到的特征节点,映射出m个增量节点H,映射方程为:
S1.6:通过得到的特征节点以及增量节点,使用超限学习ELM的方法获得输出Y,其中特征节点以及增量节点这层到输出层的权值定义为Wall;
S1.7:在得到宽度学习的输出Y之后,对输出值进行处理,计算输出值数据离各个聚类中心的距离D,最后将此输出Y划分到距离D最小的相应聚类中心里,以此重新得到了多个包;
S1.8:处理完所有输出值后,对各个包的数据计算均值,重新得到每个聚类组类的新聚类中心;
S1.9:将宽度学习得到的输出作为输入放入宽度学习系统里,然后重复步骤S1.4至步骤S1.8的操作进行迭代处理,当聚类中心不再变化或显现出小变化时,停止迭代的操作,得到最终的多个包以及每个包对应的聚类中心;
S1.10:将第A帧图像聚类与第B帧图像聚类的每个中心进行对比,规定A、B在全部帧中随机取,且A+1<B,当最终聚类中心的对比在误差范围之内,并达到了一定的数量时,便看作是达到了回环的效果。
2.根据权利要求1所述的一种基于宽度学习的智能移动机器人导航方法,其特征在于,步骤S2包括以下步骤:
S2.1:在步骤S1.1中通过RGB-D相机得到数据的同时,对此时得到的像素平面进行位置化处理,给定每个像素(x,y)位置信息,x轴为横向,y轴为纵向;
S2.2:对步骤S1.9中得到的多个包分别进行位置化的均值处理,得到位置中心Ci,i=1,...,t,位置中心的数量即跟包的数量一致,标定为t;
S2.3:计算t个中心两两之间的距离dij,为
式中θij表示位置Ci、Cj相连线段与水平线的夹角,此夹角恒为锐角;将两两中心的距离dij组成距离矩阵Mij,然后求Mij的t个特征值λi,i=1,...,t。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810961408.3A CN109272021B (zh) | 2018-08-22 | 2018-08-22 | 一种基于宽度学习的智能移动机器人导航方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810961408.3A CN109272021B (zh) | 2018-08-22 | 2018-08-22 | 一种基于宽度学习的智能移动机器人导航方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109272021A CN109272021A (zh) | 2019-01-25 |
CN109272021B true CN109272021B (zh) | 2022-03-04 |
Family
ID=65154295
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810961408.3A Active CN109272021B (zh) | 2018-08-22 | 2018-08-22 | 一种基于宽度学习的智能移动机器人导航方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109272021B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110516527B (zh) * | 2019-07-08 | 2023-05-23 | 广东工业大学 | 一种基于实例分割的视觉slam回环检测改进方法 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102831446A (zh) * | 2012-08-20 | 2012-12-19 | 南京邮电大学 | 单目视觉slam中基于图像外观的闭环检测方法 |
CN103278170A (zh) * | 2013-05-16 | 2013-09-04 | 东南大学 | 基于显著场景点检测的移动机器人级联地图创建方法 |
CN104850120A (zh) * | 2015-03-19 | 2015-08-19 | 武汉科技大学 | 基于ihdr自主学习框架的轮式移动机器人导航方法 |
CN106647272A (zh) * | 2016-12-23 | 2017-05-10 | 东华大学 | 基于k均值改进卷积神经网络的机器人路径规划方法 |
CN106840166A (zh) * | 2017-02-15 | 2017-06-13 | 北京大学深圳研究生院 | 一种基于词袋树群模型的机器人定位和导航方法 |
CN106897666A (zh) * | 2017-01-17 | 2017-06-27 | 上海交通大学 | 一种室内场景识别的闭环检测方法 |
CN107886129A (zh) * | 2017-11-13 | 2018-04-06 | 湖南大学 | 一种基于视觉词袋的移动机器人地图闭环检测方法 |
CN107894773A (zh) * | 2017-12-15 | 2018-04-10 | 广东工业大学 | 一种移动机器人的导航方法、系统及相关装置 |
CN108108764A (zh) * | 2017-12-26 | 2018-06-01 | 东南大学 | 一种基于随机森林的视觉slam回环检测方法 |
CN108230337A (zh) * | 2017-12-31 | 2018-06-29 | 厦门大学 | 一种基于移动端的语义slam系统实现的方法 |
CN108256563A (zh) * | 2018-01-09 | 2018-07-06 | 深圳市沃特沃德股份有限公司 | 基于距离度量的视觉词典闭环检测方法与装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8711206B2 (en) * | 2011-01-31 | 2014-04-29 | Microsoft Corporation | Mobile camera localization using depth maps |
-
2018
- 2018-08-22 CN CN201810961408.3A patent/CN109272021B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102831446A (zh) * | 2012-08-20 | 2012-12-19 | 南京邮电大学 | 单目视觉slam中基于图像外观的闭环检测方法 |
CN103278170A (zh) * | 2013-05-16 | 2013-09-04 | 东南大学 | 基于显著场景点检测的移动机器人级联地图创建方法 |
CN104850120A (zh) * | 2015-03-19 | 2015-08-19 | 武汉科技大学 | 基于ihdr自主学习框架的轮式移动机器人导航方法 |
CN106647272A (zh) * | 2016-12-23 | 2017-05-10 | 东华大学 | 基于k均值改进卷积神经网络的机器人路径规划方法 |
CN106897666A (zh) * | 2017-01-17 | 2017-06-27 | 上海交通大学 | 一种室内场景识别的闭环检测方法 |
CN106840166A (zh) * | 2017-02-15 | 2017-06-13 | 北京大学深圳研究生院 | 一种基于词袋树群模型的机器人定位和导航方法 |
CN107886129A (zh) * | 2017-11-13 | 2018-04-06 | 湖南大学 | 一种基于视觉词袋的移动机器人地图闭环检测方法 |
CN107894773A (zh) * | 2017-12-15 | 2018-04-10 | 广东工业大学 | 一种移动机器人的导航方法、系统及相关装置 |
CN108108764A (zh) * | 2017-12-26 | 2018-06-01 | 东南大学 | 一种基于随机森林的视觉slam回环检测方法 |
CN108230337A (zh) * | 2017-12-31 | 2018-06-29 | 厦门大学 | 一种基于移动端的语义slam系统实现的方法 |
CN108256563A (zh) * | 2018-01-09 | 2018-07-06 | 深圳市沃特沃德股份有限公司 | 基于距离度量的视觉词典闭环检测方法与装置 |
Non-Patent Citations (4)
Title |
---|
Broad Learning System: An Effective and Efficient Incremental Learning System Without the Need for Deep Architecture;C. L. Philip Chen et al;《IEEE TRANSACTIONS ON NEURAL NETWORKS AND LEARNING SYSTEMS》;20180131;第29卷(第1期);第10-24页 * |
CNN Feature boosted SeqSLAM for Real-Time Loop Closure Detection;Dongdong Bai et al;《arXiv:1704.05016v1》;20170417;第1-11页 * |
基于 ORB 词袋模型的 SLAM 回环检测研究;李同等;《信息通信》;20171031(第10期);第20-25页 * |
基于深度学习的视觉SLAM综述;赵洋等;《机器人》;20170630;第39卷(第6期);第889-896页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109272021A (zh) | 2019-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109255364B (zh) | 一种基于深度卷积生成对抗网络的场景识别方法 | |
CN109559320B (zh) | 基于空洞卷积深度神经网络实现视觉slam语义建图功能的方法及系统 | |
Fan et al. | Learning collision-free space detection from stereo images: Homography matrix brings better data augmentation | |
CN107529650B (zh) | 闭环检测方法、装置及计算机设备 | |
Vaudrey et al. | Differences between stereo and motion behaviour on synthetic and real-world stereo sequences | |
CN110245678B (zh) | 一种基于异构孪生区域选取网络的图像匹配方法 | |
CN107833236A (zh) | 一种动态环境下结合语义的视觉定位系统和方法 | |
CN111611874B (zh) | 基于ResNet和Canny的人脸口罩佩戴检测方法 | |
CN105787482A (zh) | 一种基于深度卷积神经网络的特定目标轮廓图像分割方法 | |
CN111667523B (zh) | 一种基于多模态多源的深度数据精炼方法及系统 | |
WO2022179587A1 (zh) | 一种特征提取的方法以及装置 | |
CN113326735B (zh) | 一种基于YOLOv5的多模态小目标检测方法 | |
CN114612443B (zh) | 一种多模态数据复杂缺陷特征检测方法 | |
CN111259710B (zh) | 采用停车位框线、端点的停车位结构检测模型训练方法 | |
CN112883820A (zh) | 基于激光雷达点云的道路目标3d检测方法及系统 | |
Rubio et al. | Efficient monocular pose estimation for complex 3D models | |
CN113903011A (zh) | 一种适用于室内停车场的语义地图构建及定位方法 | |
WO2020181426A1 (zh) | 一种车道线检测方法、设备、移动平台及存储介质 | |
CN108648214B (zh) | 一种基于宽度学习滤波的视觉slam算法及系统 | |
CN109272021B (zh) | 一种基于宽度学习的智能移动机器人导航方法 | |
CN106650814B (zh) | 一种基于车载单目视觉室外道路自适应分类器生成方法 | |
Tong et al. | Batch heterogeneous outlier rejection for feature-poor slam | |
CN111260955B (zh) | 采用停车位框线、端点的停车位检测系统及方法 | |
CN107610224A (zh) | 一种基于弱监督与明确闭塞建模的3d汽车对象类表示算法 | |
CN116385660A (zh) | 室内单视图场景语义重建方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |