CN114413882A - 一种基于多假设跟踪的全局初定位方法和装置 - Google Patents
一种基于多假设跟踪的全局初定位方法和装置 Download PDFInfo
- Publication number
- CN114413882A CN114413882A CN202210317515.9A CN202210317515A CN114413882A CN 114413882 A CN114413882 A CN 114413882A CN 202210317515 A CN202210317515 A CN 202210317515A CN 114413882 A CN114413882 A CN 114413882A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- global
- candidate
- data
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Image Analysis (AREA)
Abstract
本发明属于全局初定位技术领域,涉及一种基于多假设跟踪的全局初定位方法和装置,该方法首先采集场景的点云数据和其对应的全局位姿数据,构建数据库,将采集的数据经过预处理存入数据库,同时生成点云地图,然后对当前帧点云数据与数据库中的数据进行匹配,得到匹配的候选结果,接着利用连续帧之间的约束关系对候选结果进行过滤,直到候选结果收敛后,利用当前帧数据和其对应的数据库中的数据进行平移和旋转的计算,从而得到全局初定位的初始值后与点云地图匹配得到精确的初定位结果。本发明的方法结合全局描述以及多帧数据进行场景初定位,采用多假设跟踪的方法对结果进行筛选,保证了定位的效率,同时提高了定位的鲁棒性。
Description
技术领域
本发明属于全局初定位技术领域,涉及一种基于多假设跟踪的全局初定位方法和装置。
背景技术
在无人驾驶定位中,全局初定位是必不可少的环节之一。在室外场景中,一般采用GPS进行初定位,然而在地下车库等室内场景中,没有GPS信号可以用于定位,因此采用基于视觉或者基于点云的方式进行场景识别定位。基于视觉的经典方法有《Bags of binarywords for fast place recognition in image sequences》,但是基于视觉的方法对光照和视角比较敏感,仅适合在部分场景使用。基于点云的方法常利用局部描述子或者全局描述子来进行场景定位,基于局部描述子的方法有《Fast point feature histograms for3d registration》和《Place recognition using keypoint voting in large 3d lidardataset》,具有精度高,但是提出的描述子维度较大,检索效率很低。基于全局描述子的方法有《Scan context: Egocentric spatial descriptor for place recognition within3d point cloud map》和《Intensity Scan Context: Coding Intensity and GeometryRelations for Loop Closure Detection》,上述方法具有检索效率快,但是精度低,同时对距离比较敏感。上述方法均是基于单帧数据进行场景定位,易受到相似场景的干扰,定位结果不鲁棒。
发明内容
为了解决现有技术中存在的上述技术问题,本发明提出了一种基于多假设跟踪的全局初定位方法和装置,结合全局描述子以及多帧数据进行场景初定位,采用多假设跟踪的方法对结果进行筛选,保证了定位的效率,同时提高了定位的鲁棒性,其具体技术方案如下:
一种基于多假设跟踪的全局初定位方法,包括以下步骤:
步骤一,采集定位场景的点云数据和其对应的全局位姿数据,生成点云地图,同时对点云数据进行预处理,生成点云纹理图,根据点云纹理图统计出特征向量,再基于点云纹理图、特征向量和全局位姿数据构建三者映射关系并全部存入数据库;
步骤二,对当前帧点云数据进行与步骤一中相同的预处理,得到当前帧点云纹理图的特征向量,对该特征向量与数据库中的所有特征向量进行向量匹配,得到候选特征向量,再根据映射关系,从数据库中提取出对应的点云纹理图和全局位姿数据,记作当前帧的候选结果;
步骤三,遍历当前帧的候选结果,与上一帧的候选结果匹配构建二元组,计算每个二元组的置信度,并得到每个候选结果的置信度,后通过设置置信度阈值过滤无效的候选结果,再判断过滤后得到的候选结果是否收敛;
步骤四,当候选结果收敛时,对候选结果进行平移和旋转的计算,得到全局初定位的初始值后与点云地图匹配得到精确的初定位结果。
进一步的,所述步骤一,包括以下子步骤:
步骤1.1,采用SLAM同步定位与建图算法在定位场景中基于笛卡尔坐标系采
集点云数据和其对应的全局位姿数据,根据设置的距离间隔筛选出关键帧点云数据,…以及对应的全局位姿数据,…,n为大于等于1的整数,生成点
云地图;
进一步的,所述步骤二,具体为:对当前帧点云数据按照步骤1.2至步骤1.5进
行处理,得到当前帧点云纹理图的特征向量,与数据库中的所有特征向量进
行向量相似度匹配,保留匹配相似度大于阈值的候选特征向量,并根据候选特征
向量和映射关系,从数据库中取出候选特征向量对应的点云纹理图和全局位姿数据,
记作候选结果,…,k表示保留的候选特征向量的数目。
进一步的,所述步骤三,具体包括以下子步骤:
步骤3.1,遍历当前帧的候选结果,每一个候选结果,与上一帧的J个候选结果匹配
成J个二元组,每个二元组包含当前帧的候选位姿和上一帧的候选位姿,根据
连续帧的候选位姿和得到平移变化量的预测值,将平
移变化量的预测值代入正态高斯分布中,得到该预测值的
置信度,表示期望值,表示标准差,因此,J个二元组可以得到J个置信度:,…,使用J个置信度之中的最大置信度,记为当前帧候选结果的最终置信度,遍
历结束后,并根据置信度阈值,将最终置信度小于置信度阈值的候选结果过滤
掉,得到L个过滤后的候选结果:,…;
步骤3.2,统计得到的L个候选结果两两之间的平移距离,得到最大的平移距离,若最大的平移距离小于距离阈值,则认为候选结果已经收敛,取出
L个候选结果中置信度最大的候选结果作为全局定位位姿的预测值;
若最大距离大于距离阈值,则重复步骤3.1至步骤3.2。
进一步的,所述步骤3.1中的平移变化量通过以下方式得到:将上一帧的点云数据和当前帧的点云数据按照点云匹配算法得到两个帧激光坐标系之间的位姿变化
量,其中位姿变化量包括平移变化量和角度变化量,平移变
化量为两个帧激光坐标系原点之间的平移值,角度变化量为两个帧激光坐标系之间的旋转
值,平移值和旋转值均为的向量。
进一步的,所述步骤四,具体包括以下子步骤:
步骤4.1,依次改变预测值中预测纹理图的列的
顺序,列的顺序代表位姿中的航向角,进行列偏移,得到偏移后的数据,分别
计算当前帧的点云纹理图和预测偏移后的数据的列均值向
量,计算两个列均值特征向量之间的距离,对预测数据循环进行列偏移,
得到距离最小即最佳的一次列偏移值,记为;
步骤4.2,基于全局定位位姿的预测值以及最佳的列偏移值,将列偏移值乘以步骤1.3得到的极角方向划分等份后得到
的角度值,得到角度的变化量,输出全局定位的初始值,全局定位的初始值包括
平移的初始值和角度的初始值,平移的初始值采用全局定位位姿的
预测值中的平移值,角度的初始值为全局定位位姿的预测值
中的角度值加上由列偏移值得到的角度的变化量;
一种基于多假设跟踪的全局初定位装置,包括数据库生成模块、激光里程计模块、候选结果获取模块、多假设跟踪模块,所述数据库生成模块用于保存和处理在定位场景中采集的点云数据,同时生成数据库和点云地图;所述激光里程计模块用于计算连续帧的点云数据的位姿变化;所述候选结果获取模块用于将处理过的连续帧的点云数据与保存在数据库中的数据进行匹配,得到匹配的候选结果;所述多假设模块用于将当前连续帧的候选结果进行置信度过滤,再取出其中收敛后的置信度最大的候选结果,进行平移和旋转的计算,从而得到全局初定位的初始值后与点云地图匹配得到精确的初定位结果。
本发明的优点:
本发明的方法结合全局描述以及多帧数据进行场景初定位,采用多假设跟踪的方法对结果进行筛选,保证了定位的效率,同时提高了定位的鲁棒性。
附图说明
图1为本发明的多假设跟踪全局初定位方法流程图;
图2为本发明的点云数据在极坐标系划分为数据块的示意图;
图3为本发明的候选过滤示意图;
图4为本发明的点云数据候选结果处理流程图。
具体实施方式
为了使本发明的目的、技术方案和技术效果更加清楚明白,以下结合说明书附图和实施例,对本发明作进一步详细说明。
如图1所示,本发明的了一种基于多假设跟踪的全局初定位方法,该方法首先采集场景的点云数据和其对应的全局位姿数据,构建数据库,将采集的数据经过预处理存入数据库,同时生成点云地图,然后对当前帧点云数据与数据库中的数据进行匹配,得到匹配的候选结果,接着利用连续帧之间的约束关系对候选结果进行过滤,直到候选结果收敛后,利用当前帧数据和其对应的数据库中的数据进行平移和旋转的计算,从而得到全局初定位的初始值后与点云地图匹配得到精确的初定位结果。具体包括以下步骤:
步骤一,采集定位场景的点云数据和和对应的全局位姿数据,生成点云地图,同时对点云数据进行过滤、分块、二维矩阵化的预处理,生成点云纹理图,根据点云纹理图统计出特征向量,再基于点云纹理图、特征向量和全局位姿数据构建三者映射关系并全部存入数据库。
具体的,所述步骤一包括以下子步骤:
步骤1.1,采用SLAM(Simultaneous Localization and Mapping,同步定位与建
图)算法在定位场景中基于笛卡尔坐标系采集点云数据和和对应的全局位姿数据,其
中点云数据是笛卡尔坐标系下一系列点的集合,根据2m的距离间隔筛选出关键帧点云
数据,…以及对应的全局位姿数据,…,n为大于等于1的整数,生成
点云地图;
对每一帧点云数据,,按照范围进行过滤,其中笛卡尔坐标系的
平面距离阈值设为50m,值范围设为-2.0m~0.0m,将平面距离小于平面距离阈值,同时值
在阈值范围内的点保留,其他的点过滤,得到过滤后的点云数据,。
步骤1.6,构建点云纹理图、特征向量和全局位姿数据之间的映射关系,记作,其中,将映射关系、点云纹理图,…和特征向量,…,以及全局位姿数据,…存入数
据库中;读取数据库,将中的所有行的特征向量构建KDTree,即k-
dimensional树。
步骤二,对当前帧点云数据进行与步骤一中相同的预处理,得到当前帧点云纹理图的特征向量,对该特征向量与数据库中的所有特征向量进行向量匹配,得到候选特征向量,再根据映射关系,从数据库中提取出对应的点云纹理图和全局位姿数据,记作当前帧的候选结果。
具体的,如图4所示,对当前帧点云数据按照步骤1.2至步骤1.5进行处理,得
到当前帧点云纹理图的特征向量,与数据库中的所有特征向量进行向量匹
配,保留匹配相似度大于阈值的候选特征向量,并根据候选特征向量和映射关
系,从数据库中取出候选特征向量对应的点云纹理图和全局位姿数据,记作,…,k表示保留下来的候选特征向量的数目。
本发明实施例中,在KDTree中搜索最邻近的10帧数据,并按照0.2的距离阈值进行
过滤,将小于距离阈值的候选特征向量保留,根据映射关系,
从数据库中提取出候选特征向量对应的点云纹理图和全局位姿数据,记作候选结果,…。
步骤三,遍历当前帧的候选结果,与上一帧的候选结果匹配构建二元组,计算每个二元组的置信度,并得到每个候选结果的置信度,后通过设置置信度阈值过滤无效的候选结果,再判断过滤后得到的候选结果是否收敛。
具体的包括以下子步骤:
步骤3.1,如图3所示,遍历当前帧的候选结果,每一个候选结果,与上一帧的J个候
选结果匹配成J个二元组,每个二元组包含当前帧的候选位姿和上一帧的候选位姿,根据连续帧的候选位姿和得到平移变化量的预测值,将平移变化量的预测值代入正态高斯分布中,得到该预测值的置信度,因此,J个二元组可以得到J个置信度(,…),使用J个置信度之中的最大置信度,记为当前帧候选结果的最终
置信度,并根据置信度阈值,将最终置信度小于置信度阈值的候选结果过滤掉,
得到L个过滤后的候选结果(,…)。
实施例中,遍历当前帧的候选结果(,…),分别与上一帧的所有候
选结果,比如说上一帧保留了5个候选结果:,…,进行两两配对,当前
帧的每一个候选结果得到5个二元组,每个二元组中包含当前帧的候选位姿和上一帧
的候选位姿,根据二元组得到两个帧之间的平移变化量,将
平移变化量代入高斯分布中,得到该二元组的置信度,取5
个二元组中最大的置信度作为该候选结果的最终置信度,因此当前帧十个候选结果可以得
到十个置信度,将置信度小于0.8的候选结果过滤掉,保留过滤后的候选结果,比如还存在3
个候选结果,,。
其中,对于平移变化量的具体通过以下方式得到:将上一帧的点云数据和当
前帧的点云数据按照点云匹配算法输出两者之间的位姿变化量,其中位姿变化
量包括平移变化量和角度变化量,平移变化量为两个帧激光坐标系
原点之间的平移值,角度变化量为两个帧激光坐标系之间的旋转值,平移值和旋转值均为的向量。其中,点云匹配算法包括:NDT(Normal Distribution Transformation:正态
分布变换)点云匹配算法、ICP(Iterative Closest Point:迭代最近点)点云匹配算法。
实施例的无人车运行过程中,将当前帧点云数据与上一帧的点云数据,
进行NDT点云匹配,得到两个帧激光坐标系之间的位姿变化量,位姿变化量包括平移
变化量和角度变化量,均为3*1的向量,以平移变化量为
均值,设置X轴Y轴Z轴上的方差为(0.5,0.5,0.1),以此构建正太高斯分布,表示
期望值,表示标准差。
步骤3.2,统计得到的L个候选结果两两之间的平移距离,得到最大的平移距离,若最大的平移距离小于距离阈值,则认为候选结果已经收敛,取出个候选结果中置信度最大的候选结果作为全局定位位姿的预测值
;若最大距离大于距离阈值,则重复该步骤3.1至步骤3.2。
实施例中,根据剩余的3个候选结果,计算候选结果之间的最大平移距离,若最大
平移距离小于1m,则认为候选结果已经收敛,输出置信度最大的候选结果作为全局定位位
姿的预测值;反之,则重复步骤3.1至步骤3.2。
步骤四,当候选结果收敛时,对候选结果进行平移和旋转的计算,得到全局初定位的初始值后与点云地图匹配得到精确的初定位结果。
具体的,所述步骤四,包括以下子步骤:
步骤4.1,依次改变预测值中预测纹理图的列的
顺序,列的顺序代表位姿中的航向角,进行列偏移,例如列偏移5位,则将第1到4列数据依次
放在列的最后面,第五列移至第一列,得到偏移后的数据,分别计算当前帧的
点云纹理图和预测偏移后的数据的列均值向量,计算两个
列均值特征向量之间的距离,对预测数据循环进行列偏移,得到距离最小
即最佳的一次列偏移值,记为;
步骤4.2,基于全局定位位姿的预测值以及最佳的列偏移值,将列偏移值乘以步骤1.3得到的极角方向划分等份后得到
的角度值,得到角度的变化量,输出全局定位的初始值,全局定位的初始值包括
平移的初始值和角度的初始值,平移的初始值采用全局定位位姿的
预测值中的平移值,角度的初始值为全局定位位姿的预测值
中的角度值加上由列偏移值得到的角度的变化量;
本发明的一种基于多假设跟踪的全局初定位装置,包括:数据库生成模块、激光里程计模块、候选结果获取模块、多假设跟踪模块。
所述数据库生成模块用于保存和处理在定位场景中采集的点云数据,同时生成数据库和点云地图,具体的:采集定位场景的点云数据和其对应的全局位姿数据,生成点云地图,同时对点云数据进行预处理,生成点云纹理图,根据点云纹理图统计出特征向量,再基于点云纹理图、特征向量和全局位姿数据构建三者映射关系并全部存入数据库;
所述激光里程计模块用于计算连续帧的点云数据的位姿变化;
所述候选结果获取模块用于将处理过的连续帧的点云数据与保存在数据库中的数据进行匹配,得到匹配的候选结果,具体的:将连续帧的点云数据预处理后得到的点云纹理图的特征向量,与数据库中的所有特征向量进行向量匹配,得到候选特征向量,再根据映射关系,从数据库中提取出对应的点云纹理图和全局位姿数据,记作连续帧的候选结果,即得到匹配的候选结果;
所述多假设模块用于将当前连续帧的候选结果进行置信度过滤,再取出其中收敛后的置信度最大的候选结果,进行平移和旋转的计算,从而得到全局初定位的初始值后与点云地图匹配得到精确的初定位结果,具体的,遍历连续帧的候选结果,并匹配构建二元组,再计算每个二元组的置信度,从而得到每个候选结果的置信度,接着通过设置置信度阈值过滤无效的候选结果,后判断过滤以后得到的候选结果是否收敛,当候选结果收敛时,对候选结果进行平移和旋转的计算,得到全局初定位的初始值后与点云地图匹配得到精确的初定位结果。
上述装置中各个模块的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
以上所述,仅为本发明的优选实施案例,并非对本发明做任何形式上的限制。虽然前文对本发明的实施过程进行了详细说明,对于熟悉本领域的人员来说,其依然可以对前述各实例记载的技术方案进行修改,或者对其中部分技术特征进行同等替换。凡在本发明精神和原则之内所做修改、同等替换等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种基于多假设跟踪的全局初定位方法,其特征在于,包括以下步骤:
步骤一,采集定位场景的点云数据和其对应的全局位姿数据,生成点云地图,同时对点云数据进行预处理,生成点云纹理图,根据点云纹理图统计出特征向量,再基于点云纹理图、特征向量和全局位姿数据构建三者映射关系并全部存入数据库;
步骤二,对当前帧点云数据进行与步骤一中相同的预处理,得到当前帧点云纹理图的特征向量,对该特征向量与数据库中的所有特征向量进行向量匹配,得到候选特征向量,再根据映射关系,从数据库中提取出对应的点云纹理图和全局位姿数据,记作当前帧的候选结果;
步骤三,遍历当前帧的候选结果,与上一帧的候选结果匹配构建二元组,计算每个二元组的置信度,并得到每个候选结果的置信度,后通过设置置信度阈值过滤无效的候选结果,再判断过滤后得到的候选结果是否收敛;
步骤四,当过滤后得到的候选结果收敛时,对该候选结果进行平移和旋转的计算,得到全局初定位的初始值后与点云地图匹配得到精确的初定位结果。
2.如权利要求1所述的一种基于多假设跟踪的全局初定位方法,其特征在于,所述步骤一,包括以下子步骤:
步骤1.1,采用SLAM同步定位与建图算法在定位场景中基于笛卡尔坐标系采集点云数据和其对应的全局位姿数据,根据设置的距离间隔筛选出关键帧点云数据,…以及对应的全局位姿数据,…,n为大于等于1的整数,生成点云地图;
4.如权利要求3所述的一种基于多假设跟踪的全局初定位方法,其特征在于,所述步骤三,具体包括以下子步骤:
步骤3.1,遍历当前帧的候选结果,每一个候选结果,与上一帧的J个候选结果匹配成J个二元组,每个二元组包含当前帧的候选位姿和上一帧的候选位姿,根据连续帧的候选位姿和得到平移变化量的预测值,将平移变化量的预测值代入正态高斯分布中,得到该预测值的置信度,表示期望值,表示标准差,因此,J个二元组可以得到J个置信度:,…,使用J个置信度之中的最大置信度,记为当前帧候选结果的最终置信度,遍历结束后,并根据置信度阈值,将最终置信度小于置信度阈值的候选结果过滤掉,得到L个过滤后的候选结果:,…;
7.如权利要求5所述的一种基于多假设跟踪的全局初定位方法,其特征在于,所述步骤四,具体包括以下子步骤:
步骤4.1,依次改变预测值中预测纹理图的列的顺序,列的顺序代表位姿中的航向角,进行列偏移,得到偏移后的数据,分别计算当前帧的点云纹理图和预测偏移后的数据的列均值向量,计算两个列均值特征向量之间的距离,对预测数据循环进行列偏移,得到距离最小即最佳的一次列偏移值,记为;
步骤4.2,基于全局定位位姿的预测值以及最佳的列偏移值,将列偏移值乘以步骤1.3得到的极角方向划分等份后得到的角度值,得到角度的变化量,输出全局定位的初始值,全局定位的初始值包括平移的初始值和角度的初始值,平移的初始值采用全局定位位姿的预测值中的平移值,角度的初始值为全局定位位姿的预测值中的角度值加上由列偏移值得到的角度的变化量;
8.一种基于多假设跟踪的全局初定位装置,包括数据库生成模块、激光里程计模块、候选结果获取模块、多假设跟踪模块,其特征在于,所述数据库生成模块用于保存和处理在定位场景中采集的点云数据,同时生成数据库和点云地图;所述激光里程计模块用于计算连续帧的点云数据的位姿变化;所述候选结果获取模块用于将处理过的连续帧的点云数据与保存在数据库中的数据进行匹配,得到匹配的候选结果;所述多假设模块用于将当前连续帧的候选结果进行置信度过滤,再取出其中收敛后的置信度最大的候选结果,进行平移和旋转的计算,从而得到全局初定位的初始值后与点云地图匹配得到精确的初定位结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210317515.9A CN114413882B (zh) | 2022-03-29 | 2022-03-29 | 一种基于多假设跟踪的全局初定位方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210317515.9A CN114413882B (zh) | 2022-03-29 | 2022-03-29 | 一种基于多假设跟踪的全局初定位方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114413882A true CN114413882A (zh) | 2022-04-29 |
CN114413882B CN114413882B (zh) | 2022-08-05 |
Family
ID=81264273
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210317515.9A Active CN114413882B (zh) | 2022-03-29 | 2022-03-29 | 一种基于多假设跟踪的全局初定位方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114413882B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116295354A (zh) * | 2023-03-24 | 2023-06-23 | 之江实验室 | 一种无人车主动全局定位方法和系统 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007272839A (ja) * | 2006-03-31 | 2007-10-18 | Nippon Syst Wear Kk | ジェスチャ認識装置、これを用いたオンライン動作システム、ジェスチャ認識方法及びコンピュータ可読媒体 |
CN107990899A (zh) * | 2017-11-22 | 2018-05-04 | 驭势科技(北京)有限公司 | 一种基于slam的定位方法和系统 |
CN109358316A (zh) * | 2018-11-05 | 2019-02-19 | 南开大学 | 基于结构单元编码和多假设跟踪的线激光全局定位方法 |
CN110462683A (zh) * | 2018-03-06 | 2019-11-15 | 斯坦德机器人(深圳)有限公司 | 紧耦合视觉slam的方法、终端及计算机可读存储介质 |
CN111077495A (zh) * | 2019-12-10 | 2020-04-28 | 亿嘉和科技股份有限公司 | 一种基于三维激光的定位恢复方法 |
CN111209978A (zh) * | 2020-04-20 | 2020-05-29 | 浙江欣奕华智能科技有限公司 | 三维视觉重定位方法、装置及计算设备、存储介质 |
CN111709973A (zh) * | 2020-06-16 | 2020-09-25 | 北京百度网讯科技有限公司 | 目标跟踪方法、装置、设备及存储介质 |
CN112767456A (zh) * | 2021-01-18 | 2021-05-07 | 南京理工大学 | 一种三维激光点云快速重定位方法 |
CN113269094A (zh) * | 2021-05-26 | 2021-08-17 | 中国科学院自动化研究所 | 基于特征提取算法和关键帧的激光slam系统及方法 |
CN113733166A (zh) * | 2021-11-08 | 2021-12-03 | 深圳市普渡科技有限公司 | 机器人定位方法、装置、机器人和计算机可读存储介质 |
CN114236552A (zh) * | 2021-11-12 | 2022-03-25 | 苏州玖物互通智能科技有限公司 | 基于激光雷达的重定位方法及系统 |
-
2022
- 2022-03-29 CN CN202210317515.9A patent/CN114413882B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007272839A (ja) * | 2006-03-31 | 2007-10-18 | Nippon Syst Wear Kk | ジェスチャ認識装置、これを用いたオンライン動作システム、ジェスチャ認識方法及びコンピュータ可読媒体 |
CN107990899A (zh) * | 2017-11-22 | 2018-05-04 | 驭势科技(北京)有限公司 | 一种基于slam的定位方法和系统 |
CN110462683A (zh) * | 2018-03-06 | 2019-11-15 | 斯坦德机器人(深圳)有限公司 | 紧耦合视觉slam的方法、终端及计算机可读存储介质 |
CN109358316A (zh) * | 2018-11-05 | 2019-02-19 | 南开大学 | 基于结构单元编码和多假设跟踪的线激光全局定位方法 |
CN111077495A (zh) * | 2019-12-10 | 2020-04-28 | 亿嘉和科技股份有限公司 | 一种基于三维激光的定位恢复方法 |
CN111209978A (zh) * | 2020-04-20 | 2020-05-29 | 浙江欣奕华智能科技有限公司 | 三维视觉重定位方法、装置及计算设备、存储介质 |
CN111709973A (zh) * | 2020-06-16 | 2020-09-25 | 北京百度网讯科技有限公司 | 目标跟踪方法、装置、设备及存储介质 |
CN112767456A (zh) * | 2021-01-18 | 2021-05-07 | 南京理工大学 | 一种三维激光点云快速重定位方法 |
CN113269094A (zh) * | 2021-05-26 | 2021-08-17 | 中国科学院自动化研究所 | 基于特征提取算法和关键帧的激光slam系统及方法 |
CN113733166A (zh) * | 2021-11-08 | 2021-12-03 | 深圳市普渡科技有限公司 | 机器人定位方法、装置、机器人和计算机可读存储介质 |
CN114236552A (zh) * | 2021-11-12 | 2022-03-25 | 苏州玖物互通智能科技有限公司 | 基于激光雷达的重定位方法及系统 |
Non-Patent Citations (1)
Title |
---|
周光召等: "结构化环境下基于结构单元软编码的3维激光雷达点云描述子", 《机器人》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116295354A (zh) * | 2023-03-24 | 2023-06-23 | 之江实验室 | 一种无人车主动全局定位方法和系统 |
CN116295354B (zh) * | 2023-03-24 | 2023-09-29 | 之江实验室 | 一种无人车主动全局定位方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN114413882B (zh) | 2022-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhou et al. | To learn or not to learn: Visual localization from essential matrices | |
Feng et al. | 2d3d-matchnet: Learning to match keypoints across 2d image and 3d point cloud | |
US8798357B2 (en) | Image-based localization | |
CN111523610B (zh) | 一种样本高效标注的物品识别方法 | |
Cui et al. | Efficient large-scale structure from motion by fusing auxiliary imaging information | |
CN111476251A (zh) | 一种遥感影像匹配方法及装置 | |
CN112883850B (zh) | 一种基于卷积神经网络的多视角空天遥感图像匹配方法 | |
CN111523545B (zh) | 一种结合深度信息的物品查找方法 | |
CN110866934A (zh) | 基于规范性编码的复杂点云分割方法及系统 | |
KR20200063368A (ko) | 대응점 일관성에 기반한 비지도 학습 방식의 스테레오 매칭 장치 및 방법 | |
Zhan et al. | A method of hierarchical image retrieval for real-time photogrammetry based on multiple features | |
Zeng et al. | Robust multivehicle tracking with wasserstein association metric in surveillance videos | |
CN114413882B (zh) | 一种基于多假设跟踪的全局初定位方法和装置 | |
Sun et al. | F3-Net: Multi-View Scene Matching for Drone-Based Geo-Localization | |
Yin et al. | Pse-match: A viewpoint-free place recognition method with parallel semantic embedding | |
Wilson et al. | Image and object Geo-localization | |
CN114860974A (zh) | 一种遥感影像检索定位方法 | |
CN117053779A (zh) | 一种基于冗余关键帧去除的紧耦合激光slam方法及装置 | |
Vojir et al. | Efficient large-scale semantic visual localization in 2d maps | |
Salarian et al. | Accurate image based localization by applying sfm and coordinate system registration | |
Shi et al. | Fast and accurate deep loop closing and relocalization for reliable lidar slam | |
CN114943766A (zh) | 重定位方法、装置、电子设备及计算机可读存储介质 | |
Zhang et al. | Appearance-based loop closure detection via bidirectional manifold representation consensus | |
CN111435537B (zh) | 模型训练方法、装置及基于拼接图的位姿优化方法、装置 | |
Qiao et al. | Visual Localization by Place Recognition Based on Multifeature (D‐λLBP++ HOG) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |