CN111024078B - 基于gpu加速的无人机视觉slam方法 - Google Patents

基于gpu加速的无人机视觉slam方法 Download PDF

Info

Publication number
CN111024078B
CN111024078B CN201911072718.0A CN201911072718A CN111024078B CN 111024078 B CN111024078 B CN 111024078B CN 201911072718 A CN201911072718 A CN 201911072718A CN 111024078 B CN111024078 B CN 111024078B
Authority
CN
China
Prior art keywords
image
pose
words
feature
pyramid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911072718.0A
Other languages
English (en)
Other versions
CN111024078A (zh
Inventor
费志杰
孟伟
鲁仁全
蔡倩倩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN201911072718.0A priority Critical patent/CN111024078B/zh
Publication of CN111024078A publication Critical patent/CN111024078A/zh
Priority to JP2020168209A priority patent/JP6886212B2/ja
Application granted granted Critical
Publication of CN111024078B publication Critical patent/CN111024078B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于GPU加速的无人机视觉SLAM方法,首先进行相机图像信息的读取和预处理;执行前端任务:采用特征点法估计位姿;包括:相机图像的特征提取和特征匹配,采用ICP算法估算位姿;进行后端优化:基于图优化的后端优化进而优化位姿;进行词袋回环检测,构建和优化位姿图;其中步骤相机图像的特征提取和特征匹配在GUP上进行,相机图像的特征提取和特征匹配之后的步骤使用OpenCV实现CUDA并行化。本发明方法在现有的嵌入式小型GPU的基础上完成视觉SLAM前端部分的特征提取和特征匹配任务,SLAM算法的其它部分集中在CPU进行并行计算,在不降低定位精度的前提下,提高算法计算速度,减少无人机的体积与重量。

Description

基于GPU加速的无人机视觉SLAM方法
技术领域
本发明涉及无人机技术领域,尤其涉及基于GPU加速的无人机视觉SLAM方法。
背景技术
SLAM(Simultaneous localization and mapping)是即时定位与地图构建技术,利用摄像机和计算机视觉算法为机器人系统提供状态估计,在小型移动机器人、自动驾驶汽车和无人机中变得越来越流行。
在室外运行的无人机需要与执行SLAM计算的系统进行实时通信,脱机处理可以减小无人机的尺寸,从而增加飞行时间,但由于无人机需要工作在SLAM处理系统的无线通信范围内,该限制会对飞行范围产生严重影响。为了消除对飞行范围的影响,SLAM处理放在无人机上进行。然而,基于视觉图像处理的前端和后端的位姿优化相对来说计算量大,资源受限,很难在嵌入式控制器中实现实时运行。但是通过增加处理硬件,由于载重量和大小会对无人机的飞行时间和机动性造成影响。因此减小机载处理系统的体积、功耗和计算时间,对移动机器人,特别是无人机具有重要意义。
发明内容
本发明为解决现有应用于无人机的视觉SLAM方法存在需减小机载处理系统的体积、功耗和计算时间等问题,提供了一种基于GPU加速的无人机视觉SLAM方法。
为实现以上发明目的,而采用的技术手段是:
基于GPU加速的无人机视觉SLAM方法,包括以下步骤:
S1.相机图像信息的读取和预处理;所述相机为双目摄像头;
S2.前端任务:采用特征点法估计位姿;包括:相机图像的特征提取和特征匹配,采用ICP算法估算位姿;
S3.后端优化:基于图优化的后端优化进而优化位姿;
S4.进行词袋回环检测,构建和优化位姿图;
其中步骤S2中相机图像的特征提取和特征匹配在GUP上进行,所述步骤S2中相机图像的特征提取和特征匹配之后的步骤使用OpenCV实现CUDA并行化。
优选的,所述预处理为对读取得到的相机图像进行灰度化处理。
优选的,所述步骤S2中相机图像的特征提取和特征匹配具体包括以下步骤:
S21.对处理后的灰度图构建图像金字塔,并为每层金字塔图像分配应提取的特征点数量;
S22.进行各层金字塔图像的特征提取:首先对每层金字塔图像进行边界处理,在金字塔图像上划分网格后对每一网格进行特征点提取:选定在所述网格中的任一像素为待检测像素,以待检测像素为圆心,r为半径作一个圆,与该圆相交的共有n个像素,若所述n个像素中有连续N个像素与待检测像素灰度值的差大于预设阈值T,则认为该待检测像素为特征点;然后循环检测每一个像素得到所有特征点;其中一般N取11或9;
S23.对步骤S22提取得到的特征点进行剔除与均匀分布的优化;
S24.对于步骤S23得到的任一特征点,定义邻域像素的矩为:
Figure BDA0002261459160000021
其中I(x,y)为点x,y处的灰度值;
得到金字塔图像的质心为:
Figure BDA0002261459160000022
连接金字塔图像块的几何中心O与质心C,得到一个方向向量
Figure BDA0002261459160000023
则特征点的方向定义为:
θ=arctan(m01/m10)
S25.利用rBRIEF算法计算每个特征点的描述子,实现所述金字塔图像中当前帧与参考帧的特征点匹配。
优选的,所述步骤S2中采用ICP算法估算位姿的具体步骤包括:
通过ICP算法,利用非线性方法估算出帧间位姿变换(R,T),基于特征点的深度信息构建最小二乘问题:
Figure BDA0002261459160000024
把当前位姿作为优化变量,采用Bundle Adjustment为核心的图优化方法进行优化,通过不断迭代的方法估算当前位姿。
优选的,所述步骤S3的具体步骤包括:
对于SLAM过程的观测方程,其整体的代价函数为:
Figure BDA0002261459160000031
其中zij为在位姿ξi处观察路标pj产生的观测数据,eij为观测值与测量值的误差;
对上式的最小二乘进行求解,其中以位姿和路标是优化变量,采用BundleAdjustment非线性优化方法,不断寻找下降方向Δx以求得上式的最优解,即给优化变量一个增量,并对上式进行一次泰勒展开后简化为:
Figure BDA0002261459160000032
其中Fij表示整体代价函数在当前状态下对相机姿态的偏导,Eij表示整体代价函数对路标点位置的偏导;
将位姿变量放到一起:
Figure BDA0002261459160000033
将空间点的变量放到一起:
Figure BDA0002261459160000034
简化为:
Figure BDA0002261459160000035
其中Δxc和Δxp分别为所有位姿变量整合到一起的整体增量、空间点的变量整合到一起的整体增量;雅克比矩阵F和E是整体代价函数对所述整体增量的导数;
展开得到增量线性方程:
HΔx=g
使用LM方法求解则:H=JTJ+λI,而J=[FE],g=-J(x)Tf(x);
其中I为单位阵,λ为正实数;当参数λ较小时,H占主导地位,LM方法更接近高斯牛顿法,当λ较大时,λI占主导,LM方法更接近于最速下降法。
优选的,所述步骤S4具体包括以下步骤:
S41.利用词袋模型计算图像间的相似度加速回环发生的识别,通过动态计算回环帧筛选阈值,确定回环关键帧;对当前关键帧与回环关键帧计算Sim3变换得到回环检测结果;
S42.根据步骤S41的回环检测结果进行运行轨迹的纠正,构建得到轨迹符合回环检测结果的位姿图。
优选的,所述步骤S41中图像间相似度的计算步骤为:
基于所述词袋模型并使用TF-IDF算法进行计算:
设训练词典时所有特征数量为n,图像中单词wi数量为ni,则单词的IDF为:
Figure BDA0002261459160000041
设图像中单词wi出现了ni次,一共出现的单词数为n,则TF为:
Figure BDA0002261459160000042
得到单词wi的权重为:
ni=TFi×IDFi
对于每一幅图像具有多个特征点,每个特征点分别对应上词典中的某个单词并赋予权重,组成属于该图像的Bag-of-words,其中N为所述词典中的单词数,表示如下:
Figure BDA0002261459160000043
设另一幅图像的Bag-of-words为υB,则两幅图像的相似度为:
Figure BDA0002261459160000044
其中N为所述词典中的单词数,υA为一幅图像的Bag-of-words,υB为另一幅图像的Bag-of-words。
优选的,所述步骤S41中确定回环关键帧的具体步骤包括:
将与当前帧相连的局部关键帧剔除后遍历所有关键帧;
找出与当前关键帧具有相同单词的关键帧,并统计所有闭环候选帧中与当前关键帧具有共同单词最多的单词数,将最多单词的80%设置为第一阈值;
找出所有单词数超过所述第一阈值,且相似度检测大于相邻关键帧最低分数的关键帧;将其与自己相邻最紧密的前10个关键帧设定为一组;即所述组以每一个关键帧为中心,加上与中心的关键帧相邻的关键帧所形成,一个关键帧出现在一个或多个组内;
计算分组后每组的总得分以及每组得分最高的关键帧,以组得分最高的0.75作为第二阈值,找出高于所述第二阈值的所有组里面得分最高的帧,作为回环关键帧。
与现有技术相比,本发明技术方案的有益效果是:
本发明中采用了基于OBR特征提取以及结合词袋模型进行特征匹配判断的方法,减少了视觉SLAM前端处理的运算量,以及计算所需的硬件资源;另外将视觉SLAM前端图像处理的特征提取和特征匹配部分进行了CUDA并行化并调用GPU进行加速,减轻CPU的计算负担,提升处理速度,减小机载处理系统的体积、功耗和计算时间,实现无人机的实时视觉SLAM。
附图说明
图1为本发明方法的整体流程图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
在本实施例中,为减少无人机的体积和载重,选择Nvidia Jetson TX2作为视觉SLAM算法执行机载处理器进行运算和图像处理;Nvidia Jetson TX2核心模块加上载板重量不到300g,大大降低了无人机的载重负荷;同时Nvidia Jetson TX2内含ARM Cortex-A57(四核)和Nvidia Denver2(双核)处理核心、256个CUDA核心Pascal TM架构设计,可以满足本发明的GPU加速的要求。
下面对本实施例提供的基于GPU加速的无人机视觉SLAM方法进行说明,如图1所示,包括以下步骤:
S1.相机图像信息的读取和预处理;所述相机为双目摄像头;其中的预处理为对读取得到的相机图像进行灰度化处理。本实施例选用的双目摄像头的分辨率为752*480,并可以达到60fps的采集频率,基线长度为120mm;
S2.前端任务:采用特征点法估计位姿;包括:相机图像的特征提取和特征匹配,采用ICP算法估算位姿;其中步骤S2中相机图像的特征提取和特征匹配在GUP上进行,所述步骤S2中相机图像的特征提取和特征匹配之后的步骤使用OpenCV实现CUDA并行化;
其中相机图像的特征提取和特征匹配具体包括以下步骤:
S21.对处理后的灰度图构建图像金字塔,并为每层金字塔图像分配应提取的特征点数量;CUDA并行化后,该处使用OpenCV CUDAGpuMat方法对尺度金字塔进行预计算;
S22.进行各层金字塔图像的特征提取:首先对每层金字塔图像进行边界处理,在金字塔图像上划分网格后对每一网格进行特征点提取:选定在所述网格中的任一像素为待检测像素,以待检测像素为圆心,r为半径作一个圆,与该圆相交的共有16个像素,若所述16个像素中有连续12个像素与待检测像素灰度值的差大于预设阈值T,则认为该待检测像素为特征点;其中T设为原点像素灰度值的20%;然后循环检测每一个像素得到所有特征点;CUDA并行化后,对于每层金字塔,都会启动一个CUDA异步内核,以便在块上快速运行;
S23.对步骤S22提取得到的特征点进行剔除与均匀分布的优化;
S24.对于步骤S23得到的任一特征点,定义邻域像素的矩为:
Figure BDA0002261459160000061
其中I(x,y)为点x,y处的灰度值;
得到金字塔图像的质心为:
Figure BDA0002261459160000062
连接金字塔图像块的几何中心O与质心C,得到一个方向向量
Figure BDA0002261459160000063
则特征点的方向定义为:
θ=arctan(m01/m10)
S25.利用rBRIEF算法计算每个特征点的描述子,实现所述金字塔图像中当前帧与参考帧的特征点匹配;CUDA并行化后,对于每层金字塔,都会启动一个CUDA异步内核来计算关键点的描述子。
其中采用ICP算法估算位姿的具体步骤包括:
通过ICP算法,利用非线性方法估算出帧间位姿变换(R,T),基于特征点的深度信息构建最小二乘问题:
Figure BDA0002261459160000071
把当前位姿作为优化变量,采用Bundle Adjustment为核心的图优化方法进行优化,通过不断迭代的方法估算当前位姿。
S3.后端优化:本实施例采用了基于图优化的后端优化,由于视觉SLAM的前端视觉里程计仅给出一个短时间内的轨迹和地图,不可避免的会存在着误差,这样随着时间的延长会导致地图不够精确,因此在后端优化中考虑一段更长时间内的状态估计问题,在SLAM中的运动方程和观测方程都是非线性函数,因此在本实施例中采用非线性方法表述此类问题,具体步骤包括:
对于SLAM过程的观测方程,其整体的代价函数为:
Figure BDA0002261459160000072
其中zij为在位姿ξi处观察路标pj产生的观测数据,eij为观测值与测量值的误差;
对上式的最小二乘进行求解,其中以位姿和路标是优化变量,即通过迭代的方法不断的对位姿和路标进行调整,采用Bundle Adjustment非线性优化方法,不断寻找下降方向Δx以求得上式的最优解,即给优化变量一个增量,并对上式进行一次泰勒展开后简化为:
Figure BDA0002261459160000073
其中Fij表示整体代价函数在当前状态下对相机姿态的偏导,Eij表示整体代价函数对路标点位置的偏导;
将位姿变量放到一起:
Figure BDA0002261459160000074
将空间点的变量放到一起:
Figure BDA0002261459160000075
简化为:
Figure BDA0002261459160000081
其中Δxc和Δxp分别为所有位姿变量整合到一起的整体增量、空间点的变量整合到一起的整体增量;雅克比矩阵F和E是整体代价函数对所述整体增量的导数;因为后端优化考虑一个更长时间的状态估计,这是一个非常大的矩阵,其中中由每个误差项的导数拼凑起来的;
展开得到增量线性方程:
HΔx=g
使用LM方法求解则:H=JTJ+λI,而J=[FE],g=-J(x)Tf(x);其中I为单位阵,λ为正实数;
此处的H矩阵是一个很大的矩阵,直接求逆非常消耗计算资源,但是该矩阵稀疏矩阵有一定的特殊结构,利用这个矩阵的稀疏性进行边缘化可以加速求解过程。
S4.进行词袋回环检测,构建和优化位姿图;具体包括:
S41.所述步骤S41中图像间相似度的计算步骤为:
基于所述词袋模型并使用TF-IDF算法进行计算:
设训练词典时所有特征数量为n,图像中单词wi数量为ni,则单词的IDF为:
Figure BDA0002261459160000082
设图像中单词wi出现了ni次,一共出现的单词数为n,则TF为:
Figure BDA0002261459160000083
得到单词wi的权重为:
ni=TFi×IDFi
对于每一幅图像具有多个特征点,每个特征点分别对应上词典中的某个单词并赋予权重,组成属于该图像的Bag-of-words,其中N为所述词典中的单词数,表示如下:
Figure BDA0002261459160000084
设另一幅图像的Bag-of-words为υB,则两幅图像的相似度为:
Figure BDA0002261459160000091
其中N为所述词典中的单词数,υA为一幅图像的Bag-of-words,υB为另一幅图像的Bag-of-words。
其中确定回环关键帧的具体步骤包括:
将与当前帧相连的局部关键帧剔除后遍历所有关键帧;
找出与当前关键帧具有相同单词的关键帧,并统计所有闭环候选帧中与当前关键帧具有共同单词最多的单词数,将最多单词的80%设置为第一阈值;
找出所有单词数超过所述第一阈值,且相似度检测大于相邻关键帧最低分数的关键帧;将其与自己相邻最紧密的前10个关键帧设定为一组;即所述组以每一个关键帧为中心,加上与中心的关键帧相邻的关键帧所形成,一个关键帧出现在一个或多个组内;
计算分组后每组的总得分以及每组得分最高的关键帧,以组得分最高的0.75作为第二阈值,找出高于所述第二阈值的所有组里面得分最高的帧,作为回环关键帧;
S42.根据步骤S41的回环检测结果进行运行轨迹的纠正,构建得到轨迹符合回环检测结果的位姿图。由于位姿的估计往往是一个递推的过程,即由上一帧位姿解算当前帧位姿,因此其中的误差便在这个递推过程中一帧一帧地传递下去,从而造成累计误差。为了消除或减少这里的累积误差,进行运行轨迹的纠正,构建位姿图对位姿进行优化。
其中在本实施例中使用OpenCV实现CUDA并行化,并行化须为CUDA追踪块ID和线程ID。CUDA在同一个代码块中有许多线程,与同一块中的其他线程相比每个线程都有它ID,它们具有唯一标识符,每个代码块都有它拥有唯一的ID,以便每个代码块中的线程不会被意外地视为线程另一个代码块。对于每个块的大小,它可以显示每个块中有多少线程。线程被放置到块中以存储线程跟踪信息,而不需要使用大量内存。
附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (6)

1.基于GPU加速的无人机视觉SLAM方法,其特征在于,包括以下步骤:
S1.相机图像信息的读取和预处理;所述相机为双目摄像头;
S2.前端任务:采用特征点法估计位姿;包括:相机图像的特征提取和特征匹配,采用ICP算法估算位姿;
S3.后端优化:基于图优化的后端优化进而优化位姿;
S4.进行词袋回环检测,构建和优化位姿图;
其中步骤S2中相机图像的特征提取和特征匹配在GPU上进行,所述步骤S2中相机图像的特征提取和特征匹配之后的步骤使用OpenCV实现CUDA并行化;
所述预处理为对读取得到的相机图像进行灰度化处理;
所述步骤S2中相机图像的特征提取和特征匹配具体包括以下步骤:
S21.对处理后的灰度图构建图像金字塔,并为每层金字塔图像分配应提取的特征点数量;CUDA并行化后,该处使用OpenCV CUDAGpuMat方法对尺度金字塔进行预计算;
S22.进行各层金字塔图像的特征提取:首先对每层金字塔图像进行边界处理,在金字塔图像上划分网格后对每一网格进行特征点提取:选定在所述网格中的任一像素为待检测像素,以待检测像素为圆心,r为半径作一个圆,与该圆相交的共有n个像素,若所述n个像素中有连续N个像素与待检测像素灰度值的差大于预设阈值T,则认为该待检测像素为特征点;然后循环检测每一个像素得到所有特征点;CUDA并行化后,对于每层金字塔,都会启动一个CUDA异步内核,以便在块上快速运行;
S23.对步骤S22提取得到的特征点进行剔除与均匀分布的优化;
S24.对于步骤S23得到的任一特征点,定义邻域像素的矩为:
mpq=∑x,yxpyqI(x,y),p,q={0,1}
其中I(x,y)为点x,y处的灰度值;
得到金字塔图像的质心为:
Figure FDA0002911844990000011
连接金字塔图像块的几何中心O与质心C,得到一个方向向量
Figure FDA0002911844990000012
则特征点的方向定义为:
θ=arctan(m01/m10)
S25.利用rBRIEF算法计算每个特征点的描述子,实现所述金字塔图像中当前帧与参考帧的特征点匹配;CUDA并行化后,对于每层金字塔,都会启动一个CUDA异步内核来计算关键点的描述子。
2.根据权利要求1所述的基于GPU加速的无人机视觉SLAM方法,其特征在于,所述步骤S2中采用ICP算法估算位姿的具体步骤包括:
通过ICP算法,利用非线性方法估算出帧间位姿变换(R,T),基于特征点的深度信息构建最小二乘问题:
Figure FDA0002911844990000021
把当前位姿作为优化变量,采用Bundle Adjustment为核心的图优化方法进行优化,通过不断迭代的方法估算当前位姿。
3.根据权利要求2所述的基于GPU加速的无人机视觉SLAM方法,其特征在于,所述步骤S3的具体步骤包括:
对于SLAM过程的观测方程,其整体的代价函数为:
Figure FDA0002911844990000022
其中zij为在位姿ξi处观察路标pj产生的观测数据,eij为观测值与测量值的误差;
对上式的最小二乘进行求解,其中以位姿和路标是优化变量,采用Bundle Adjustment非线性优化方法,不断寻找下降方向Δx以求得上式的最优解,即给优化变量一个增量,并对上式进行一次泰勒展开后简化为:
Figure FDA0002911844990000023
其中Fij表示整体代价函数在当前状态下对相机姿态的偏导,Eij表示整体代价函数对路标点位置的偏导;
将位姿变量放到一起:
Figure FDA0002911844990000024
将空间点的变量放到一起:
Figure FDA0002911844990000025
简化为:
Figure FDA0002911844990000026
其中△xc和△xp分别为所有位姿变量整合到一起的整体增量、空间点的变量整合到一起的整体增量;雅克比矩阵F和E是整体代价函数对所述整体增量的导数;
展开得到增量线性方程:
HΔx=g
使用LM方法求解则:H=JTJ+λI,而J=[F E],g=-J(x)Tf(x);
其中I为单位阵,λ为正实数。
4.根据权利要求3所述的基于GPU加速的无人机视觉SLAM方法,其特征在于,所述步骤S4具体包括以下步骤:
S41.利用词袋模型计算图像间的相似度加速回环发生的识别,通过动态计算回环帧筛选阈值,确定回环关键帧;对当前关键帧与回环关键帧计算Sim3变换得到回环检测结果;
S42.根据步骤S41的回环检测结果进行运行轨迹的纠正,构建得到轨迹符合回环检测结果的位姿图。
5.根据权利要求4所述的基于GPU加速的无人机视觉SLAM方法,其特征在于,所述步骤S41中图像间相似度的计算步骤为:
基于所述词袋模型并使用TF-IDF算法进行计算:
设训练词典时所有特征数量为n,图像中单词wi数量为ni,则单词的IDF为:
Figure FDA0002911844990000031
设图像中单词wi出现了ni次,一共出现的单词数为n,则TF为:
Figure FDA0002911844990000032
得到单词wi的权重为:
ni=TFi×IDFi
对于每一幅图像具有多个特征点,每个特征点分别对应上词典中的某个单词并赋予权重,组成属于该图像的Bag-of-words,其中N为所述词典中的单词数,表示如下:
Figure FDA0002911844990000033
设另一幅图像的Bag-of-words为υB,则两幅图像的相似度为:
Figure FDA0002911844990000034
其中N为所述词典中的单词数,υA为一幅图像的Bag-of-words,υB为另一幅图像的Bag-of-words。
6.根据权利要求5所述的基于GPU加速的无人机视觉SLAM方法,其特征在于,所述步骤S41中确定回环关键帧的具体步骤包括:
将与当前帧相连的局部关键帧剔除后遍历所有关键帧;
找出与当前关键帧具有相同单词的关键帧,并统计所有闭环候选帧中与当前关键帧具有共同单词最多的单词数,将最多单词的80%设置为第一阈值;
找出所有单词数超过所述第一阈值,且相似度检测大于相邻关键帧最低分数的关键帧;将其与自己相邻最紧密的前10个关键帧设定为一组;即所述组以每一个关键帧为中心,加上与中心的关键帧相邻的关键帧所形成,一个关键帧出现在一个或多个组内;
计算分组后每组的总得分以及每组得分最高的关键帧,以组得分最高的0.75作为第二阈值,找出高于所述第二阈值的所有组里面得分最高的帧,作为回环关键帧。
CN201911072718.0A 2019-11-05 2019-11-05 基于gpu加速的无人机视觉slam方法 Active CN111024078B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201911072718.0A CN111024078B (zh) 2019-11-05 2019-11-05 基于gpu加速的无人机视觉slam方法
JP2020168209A JP6886212B2 (ja) 2019-11-05 2020-10-05 Gpuアクセラレーションに基づくドローン視覚slam方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911072718.0A CN111024078B (zh) 2019-11-05 2019-11-05 基于gpu加速的无人机视觉slam方法

Publications (2)

Publication Number Publication Date
CN111024078A CN111024078A (zh) 2020-04-17
CN111024078B true CN111024078B (zh) 2021-03-16

Family

ID=70200815

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911072718.0A Active CN111024078B (zh) 2019-11-05 2019-11-05 基于gpu加速的无人机视觉slam方法

Country Status (2)

Country Link
JP (1) JP6886212B2 (zh)
CN (1) CN111024078B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111898589B (zh) * 2020-08-26 2023-11-14 中国水利水电科学研究院 一种基于gpu+特征识别的无人机影像快速配准方法
CN112070201A (zh) * 2020-08-26 2020-12-11 成都睿芯行科技有限公司 一种基于Gmapping提升建图速度的方法
CN112233177B (zh) * 2020-10-10 2021-07-30 中国安全生产科学研究院 一种无人机位姿估计方法及系统
CN113112394A (zh) * 2021-04-13 2021-07-13 北京工业大学 一种基于cuda技术的视觉slam前端加速方法
CN113076914B (zh) * 2021-04-16 2024-04-12 咪咕文化科技有限公司 一种图像处理方法、装置、电子设备和存储介质
CN113313763B (zh) * 2021-05-26 2023-06-23 珠海深圳清华大学研究院创新中心 一种基于神经网络的单目相机位姿优化方法及装置
CN113670268B (zh) * 2021-08-04 2023-08-01 国网福建省电力有限公司泉州供电公司 基于双目视觉的无人机和电力杆塔距离测量方法
CN113961013A (zh) * 2021-11-10 2022-01-21 吉林省春城热力股份有限公司 一种基于rgb-d slam的无人机路径规划方法
CN115586968B (zh) * 2022-10-12 2023-10-27 北京斯年智驾科技有限公司 一种icp并行加速计算方法、系统、终端及介质
CN116883502B (zh) * 2023-09-05 2024-01-09 深圳市智绘科技有限公司 相机位姿和路标点位置的确定方法、装置、介质及设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103345382A (zh) * 2013-07-15 2013-10-09 郑州师范学院 一种cpu+gpu群核超算系统及sift特征匹配并行计算方法
CN105550974A (zh) * 2015-12-13 2016-05-04 复旦大学 基于gpu的图像特征提取算法的加速方法
CN106648901A (zh) * 2016-12-29 2017-05-10 广东工业大学 一种多通道信号相关性分析方法及系统
CN107680133A (zh) * 2017-09-15 2018-02-09 重庆邮电大学 一种基于改进闭环检测算法的移动机器人视觉slam方法
CN108664348A (zh) * 2018-05-08 2018-10-16 广东工业大学 一种基于cuda的快速变点检测方法、装置及存储介质
CN109063665A (zh) * 2018-08-13 2018-12-21 广东工业大学 一种遥感图像的解混方法、系统及相关组件
CN109165680A (zh) * 2018-08-01 2019-01-08 东南大学 基于视觉slam的室内场景下单一目标物体字典模型改进方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112018003270T5 (de) * 2017-06-27 2020-03-05 Sony Corporation Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren und programm

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103345382A (zh) * 2013-07-15 2013-10-09 郑州师范学院 一种cpu+gpu群核超算系统及sift特征匹配并行计算方法
CN105550974A (zh) * 2015-12-13 2016-05-04 复旦大学 基于gpu的图像特征提取算法的加速方法
CN106648901A (zh) * 2016-12-29 2017-05-10 广东工业大学 一种多通道信号相关性分析方法及系统
CN107680133A (zh) * 2017-09-15 2018-02-09 重庆邮电大学 一种基于改进闭环检测算法的移动机器人视觉slam方法
CN108664348A (zh) * 2018-05-08 2018-10-16 广东工业大学 一种基于cuda的快速变点检测方法、装置及存储介质
CN109165680A (zh) * 2018-08-01 2019-01-08 东南大学 基于视觉slam的室内场景下单一目标物体字典模型改进方法
CN109063665A (zh) * 2018-08-13 2018-12-21 广东工业大学 一种遥感图像的解混方法、系统及相关组件

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
CUDA和OpenCV图像并行处理方法研究;刘鑫等;《测绘科学》;20120731;第37卷(第4期);123-125 *
一种用于图像拼接的改进ORB算法;王健等;《液晶与显示》;20180630;第33卷(第6期);正文第21-22页 *
基于几何特征回环检测的RGB-D SLAM算法研究;孙文池;《中国优秀硕士学位论文全文数据库 信息科技辑》;20190215(第2期);摘要,正文1-4,9,12-13,16-22,40,47页 *
基于嵌入式并行处理的视觉惯导SLAM算法研究;张建越;《中国优秀硕士学位论文全文数据库信息科技辑》;20190115(第1期);I138-2342 *
基于视觉的机器人室内定位算法研究与嵌入式实现;窦赫暄;《中国优秀硕士学位论文全文数据库 信息科技辑》;20180215(第2期);I138-1965 *
孙文池.基于几何特征回环检测的RGB-D SLAM算法研究.《中国优秀硕士学位论文全文数据库 信息科技辑》.2019,(第2期), *
面向地-空机器人协同的SLAM技术研究及实验平台构建;张特;《中国优秀硕士学位论文全文数据库信息科技辑》;20180915(第9期);正文第26-28页 *

Also Published As

Publication number Publication date
CN111024078A (zh) 2020-04-17
JP6886212B2 (ja) 2021-06-16
JP2021077353A (ja) 2021-05-20

Similar Documents

Publication Publication Date Title
CN111024078B (zh) 基于gpu加速的无人机视觉slam方法
Gehrig et al. End-to-end learning of representations for asynchronous event-based data
Chaurasia et al. Linknet: Exploiting encoder representations for efficient semantic segmentation
Wu et al. Vision-based real-time aerial object localization and tracking for UAV sensing system
CN112634451A (zh) 一种融合多传感器的室外大场景三维建图方法
Nguyen et al. HOOFR SLAM system: An embedded vision SLAM algorithm and its hardware-software mapping-based intelligent vehicles applications
Zhang et al. Weakly aligned feature fusion for multimodal object detection
CN103440667A (zh) 一种遮挡状态下运动目标稳定追踪的自动装置
Gu et al. An FPGA-based real-time simultaneous localization and mapping system
Ding et al. Simultaneous body part and motion identification for human-following robots
Liu et al. Learning optical flow and scene flow with bidirectional camera-lidar fusion
Vaidya et al. Hardware efficient modified cnn architecture for traffic sign detection and recognition
CN106408593A (zh) 一种基于视频的车辆跟踪方法及装置
Lu et al. Hybrid deep learning based moving object detection via motion prediction
CN116734834A (zh) 应用于动态场景的定位建图方法、装置和智能设备
Li et al. Multitarget tracking of pedestrians in video sequences based on particle filters
CN105335717A (zh) 基于智能移动终端视频抖动分析的人脸识别系统
Sinha et al. Human activity recognition from UAV videos using a novel DMLC-CNN model
Piekenbrock et al. Automated aerial refueling: Parallelized 3D iterative closest point: Subject area: Guidance and control
Paul et al. Real-time motion detection based on SW/HW-codesign for walking rescue robots
Wu et al. Real-time visual tracking via incremental covariance model update on Log-Euclidean Riemannian manifold
Wu et al. A Multi-Target Tracking and Positioning Technology for UAV Based on Siamrpn Algorithm
Xinxin et al. Light-Weight Multi-Target Detection and Tracking Algorithm Based on M3-YOLOv5
Mone et al. Machine Learning Based Computer Vision Application for Visually Disabled People
Chghaf et al. Real-time embedded large-scale place recognition for autonomous ground vehicles using a spatial descriptor

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Fei Zhijie

Inventor after: Meng Wei

Inventor after: Lu Renquan

Inventor after: Cai Qianqian

Inventor before: Fei Zhijie

Inventor before: Meng Wei

Inventor before: Lu Renquan

Inventor before: Fu Min Yue

Inventor before: Cai Qianqian

CB03 Change of inventor or designer information
GR01 Patent grant
GR01 Patent grant