CN113808169B - 基于orb-slam的大型装备结构表面检测路径规划方法 - Google Patents
基于orb-slam的大型装备结构表面检测路径规划方法 Download PDFInfo
- Publication number
- CN113808169B CN113808169B CN202111098458.1A CN202111098458A CN113808169B CN 113808169 B CN113808169 B CN 113808169B CN 202111098458 A CN202111098458 A CN 202111098458A CN 113808169 B CN113808169 B CN 113808169B
- Authority
- CN
- China
- Prior art keywords
- point
- image
- slam
- orb
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000001514 detection method Methods 0.000 title claims abstract description 30
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 6
- 239000013598 vector Substances 0.000 claims description 6
- 238000007689 inspection Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 3
- 238000009499 grossing Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 238000010187 selection method Methods 0.000 claims description 3
- 238000012163 sequencing technique Methods 0.000 claims description 3
- 230000003068 static effect Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 abstract description 2
- 230000000007 visual effect Effects 0.000 description 4
- 230000004927 fusion Effects 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
- G01C21/32—Structuring or formatting of map data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20164—Salient point detection; Corner detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Automation & Control Theory (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于ORB‑SLAM的大型装备结构表面检测路径规划方法,包括如下步骤:对复杂装备的表面结构进行拍照,提取每帧图像中的ORB特征点,再在各帧中进行匹配获得两帧图像之间相机的位姿变化,估计相机运动轨迹;添加新的关键帧与特征点到活动的地图中,删除无效特征点,同时通过光束法平差更新地图。与现有技术相比,本发明具有逻辑简单、投入成本低廉、计算效率高等优点,在故障检测技术领域具有很高的实用价值和推广价值。
Description
技术领域
本发明涉及无人系统路径规划方法,尤其是基于ORB-SLAM的大型复杂装备表面无人机检测路径方法
背景技术
大型复杂装备服役期间,不可避免的会出现结构损伤,大大降低了大型装备的可靠度。对服役的大型机械装备进行定期的表面探伤与修复,可以在早期发现并修复结构损伤,提高其可靠度。因此,对服役的大型装备进行定期的表面探伤是非常必要的。对于飞机等复杂装备表面结构检测,现在仍主要采用人工目视检查的方式,由于高度限制,需借助升降台等各种工具,给检修工作带来极大的难度。
近年来,随着智能机器人领域的快速发展,各种各样的工业机器人在各行业中得到广泛的应用,其中的四旋翼无人机,由于其高机动型、垂直起降等优点,有着极大的开发潜力。借助无人机的空中视角,实现飞机表面结构检测的智能化是当前的热点研究课题之一。要实现无人机的自动化、智能化工作,就要解决其自主导航的问题,既要感知周围环境,又要定位自身相对位置,这两项工作是同时进行的,即实现机器人的同步定位与建图(Simultaneous MappingandLocalization,SLAM)。对于复杂装备表面结构检测的使用需求,由于体型巨大,单机器人作业的能力和效率无法满足要求。
发明内容
发明目的:本发明目的在于针对现有技术的不足,提供一种适用于多个机器人协同工作的基于ORB-SLAM的大型装备结构表面检测路径规划方法。
技术方案:本发明所述基于ORB-SLAM的大型装备结构表面检测路径规划方法,包括如下步骤:
步骤1、采集无人机和/或采集无人车搭载高清云台相机,对复杂装备的表面结构进行拍照,提取每帧图像中的ORB特征点,再在各帧中进行匹配获得两帧图像之间相机的位姿变化,估计相机运动轨迹;
步骤2、建立图像特征坐标点和世界坐标系下三维坐标点的转换关系,获得大型装备结构表面检测地图,添加新的关键帧与特征点到活动的地图中,删除无效特征点,同时通过光束法平差更新地图,获得采集无人机和/或采集无人车检测路径。
本发明进一步优选地技术方案为,步骤1中估计相机运动轨迹的具体方法为:
(1)识别和提取每帧图像的FAST角点;
(2)对每个角点计算其BRIEF描述子;
(3)选用汉明权重作为度量,采用暴力匹配的方法,计算下一帧所有特征点的BRIEF描述子与当前帧每一个特征点的BRIEF描述子之间的汉明权重,排序后选取汉明权重最大的一个作为匹配点;
(4)选取多对匹配点,采用对极几何估计相机运动。
作为优选地,步骤(1)识别和提取FAST角点的方法为:
a、将图像转化为灰度图;
b、将图像上的任一像素点记为Pi,并记录其灰度值Gi;
c、对Pi,分别记录其周围半径为3像素的圆上的16个像素点灰度值Gi1~Gi16;
d、对Gi1~Gi16,分别计算与Gi的差的绝对值Ti(i=1,2…16);
e、设置阈值T,统计Ti(i=1,2…16)中不小于T的个数W;
f、设置阈值N,若W≥N,则认为Pi为特征点,反之则剔除Pi;
g、对每个像素,均重复步骤(3)~(6)。
优选地,步骤(2)中对每个角点计算其BRIEF描述子的方法为:
a、使用高斯滤波平滑图像,减少噪声干扰;
b、在特征点周围选取一定大小的窗口记作patch,在patch内采用随机选点的方法挑选出来Nd个点对(p,q),Nd取128、256或512;
c、比较每个点对中两点亮度Ip与Iq,若Ip>Iq,则这个点对在二值串对应的值为1,反之为0;
d、对Nd个点对都进行比较,得到的二值串即为BRIEF描述子。
优选地,步骤(3)中对于两个二进制数值串的BRIEF描述子之间的汉明权重是对两个二进制数值串作异或运算后得到的响应中1的数量。
优选地,步骤(3)中当其中一个特征点汉明权重不足最大汉明权重的一半时,将该点对作为误匹配剔除。
优选地,步骤2中建立图像特征坐标点和世界坐标系下三维坐标点的转换关系的具体方法为:
设特征点的像素坐标为limage=(x,y),其在真实世界对应点的三维坐标为Pworld=(X,Y,Z),设二者之间的投影方程为:
limage=PXworld;
添加修正量使等式关系严格成立,即:
limage+v=PXworld
其中v是符合高斯分布的随机误差;
推广至所有时刻,得出整体代价函数表达式:
其中ξ为相机外参数(R,t)对应的李代数,zij表示在位姿ξi处观测到世界点pj的信息。
优选地,步骤2中每添加一个关键帧,即检测动态地图与静态地图库是否有重叠的共有区域,如果检测到,执行回环矫正,对于非重叠部分进行地图融合。
优选地,还具有重定位模块,在采集无人机和/或采集无人车SLAM过程中,当系统跟踪失败时,将后续图像进行回环检测,对之前所有关键帧进行试匹配以查找与当前时刻图像最相似的帧,使用PnP的方法根据两帧图像匹配的特征点对计算当前相机位姿,恢复SLAM过程。
优选地,对步骤1的图像中的特征加以分类,将每种类型的特征作为BoW模型中的单词,记为Word,这些单词的集合称为字典,记为Dictionary,对于字典中的所有单词,在一张图片中出现的记为1,不出现的记为0,通过一个由0和1组成的n维向量构成了对图片特征的描述,通过比较此向量的相似程度来确定图像的相似程度。
有益效果:本发明实现了不同视角下大范围全局融合建图;同时相比于单个机器人SLAM,多个机器人协同工作有着以下优点:多机器人视角互补,可实现飞机整机表面结构检测的SLAM需求;多机器人并行执行任务,可以缩短任务时间,提高效率;多机器人硬件互补,丰富系统的功能,提高作业能力;多机器人信息共享,修正差错,提高系统鲁棒性;
本发明针对复杂装备表面以主体结构最大水平截面为限规划全覆盖的无人系统检测路径,与现有技术相比,本发明具有逻辑简单、投入成本低廉、计算效率高等优点,在故障检测技术领域具有很高的实用价值和推广价值;
本发明针对相机快速移动、视角快速变化、图像纹理特征不明显时容易导致两帧图像之间特征点匹配失败,从而无法继续跟踪相机位姿和建图的问题,设置重定位模块,从而提高系统的鲁棒性;
本发明基于BA优化和词袋模型实现一种适用多环境的SLAM闭环检测方法,闭环检测精度高,方法有效。
附图说明
图1为复杂大型装备表面结构检测空地协同SLAM系统框架图。
图2为回环检测流程图。
具体实施方式
下面通过附图对本发明技术方案进行详细说明,但是本发明的保护范围不局限于所述实施例。
实施例:一种基于ORB-SLAM的大型装备结构表面检测路径规划方法,包括如下步骤:
步骤1、采集无人机和/或采集无人车搭载高清云台相机,对复杂装备的表面结构进行拍照,提取每帧图像中的ORB特征点,再在各帧中进行匹配获得两帧图像之间相机的位姿变化,估计相机运动轨迹:
(1)识别和提取每帧图像的FAST角点:
a、将图像转化为灰度图;
b、将图像上的任一像素点记为Pi,并记录其灰度值Gi;
c、对Pi,分别记录其周围半径为3像素的圆上的16个像素点灰度值Gi1~Gi16;
d、对Gi1~Gi16,分别计算与Gi的差的绝对值Ti(i=1,2…16);
e、设置阈值T,统计Ti(i=1,2…16)中不小于T的个数W;
f、设置阈值N,若W≥N,则认为Pi为特征点,反之则剔除Pi;
g、对每个像素,均重复步骤(3)~(6)。
(2)对每个角点计算其BRIEF描述子:
a、使用高斯滤波平滑图像,减少噪声干扰;
b、在特征点周围选取一定大小的窗口记作patch,在patch内采用随机选点的方法挑选出来Nd个点对(p,q),Nd取128、256或512;
c、比较每个点对中两点亮度Ip与Iq,若Ip>Iq,则这个点对在二值串对应的值为1,反之为0;
d、对Nd个点对都进行比较,得到的二值串即为BRIEF描述子。
(3)选用汉明权重作为度量,两个二进制数值串之间的汉明权重指的是对两个二进制数值串作异或运算后得到的响应中1的数量。在本实施例特征点数量较少的情况下,采用暴力匹配的方法,计算下一帧所有特征点的BRIEF描述子与当前帧每一个特征点的BRIEF描述子之间的汉明权重,排序后选取汉明权重最大的一个作为匹配点,为减少误匹配带来的影响,当汉明权重不足最大汉明权重的一半时,将该点对作为误匹配剔除。
(4)选取多对匹配点,采用对极几何估计相机运动。
步骤2、建立图像特征坐标点和世界坐标系下三维坐标点的转换关系,获得大型装备结构表面检测地图,添加新的关键帧与特征点到活动的地图中,删除无效特征点,同时通过光束法平差更新地图,获得采集无人机和/或采集无人车检测路径:
建立图像特征坐标点和世界坐标系下三维坐标点的转换关系的具体方法为:
设特征点的像素坐标为limage=(x,y),其在真实世界对应点的三维坐标为Pworld=(X,Y,Z),设二者之间的投影方程为:
limage=PXworld;
添加修正量使等式关系严格成立,即:
limage+v=PXworld
其中v是符合高斯分布的随机误差;
推广至所有时刻,得出整体代价函数表达式:
其中ξ为相机外参数(R,t)对应的李代数,zij表示在位姿ξi处观测到世界点pj的信息。
每添加一个关键帧,即检测动态地图与静态地图库是否有重叠的共有区域,如果检测到,执行回环矫正,对于非重叠部分进行地图融合。
相机快速移动、视角快速变化、图像纹理特征不明显时容易导致两帧图像之间特征点匹配失败的问题,无法继续跟踪相机位姿和建图。为提高系统的鲁棒性,设置重定位模块,在采集无人机和/或采集无人车SLAM过程中,当系统跟踪失败时,将后续图像进行回环检测,对之前所有关键帧进行试匹配以查找与当前时刻图像最相似的帧,使用PnP的方法根据两帧图像匹配的特征点对计算当前相机位姿,恢复SLAM过程。
对图像中的特征加以分类,将每种类型的特征作为BoW模型中的单词(Word),这些单词的集合称为字典(Dictionary)。对于字典中的所有单词,在一张图片中出现的记为1,不出现的记为0,这样就通过一个由0和1组成的n维向量构成了对图片特征的描述。通过比较此向量的相似程度来确定图像的相似程度。上述单词并非图像的某个特征,而是某一类特征的聚合,可以采用K均值(K-means)算法实现此类聚(Clustering)过程。
如上所述,尽管参照特定的优选实施例已经表示和表述了本发明,但其不得解释为对本发明自身的限制。在不脱离所附权利要求定义的本发明的精神和范围前提下,可对其在形式上和细节上作出各种变化。
Claims (8)
1.一种基于ORB-SLAM的大型装备结构表面检测路径规划方法,其特征在于,包括如下步骤:
步骤1、采集无人机和/或采集无人车搭载高清云台相机,对复杂装备的表面结构进行拍照,提取每帧图像中的ORB特征点,再在各帧中进行匹配获得两帧图像之间相机的位姿变化,估计相机运动轨迹;
步骤2、建立图像特征坐标点和世界坐标系下三维坐标点的转换关系,获得大型装备结构表面检测地图,添加新的关键帧与特征点到活动的地图中,删除无效特征点,同时通过光束法平差更新地图,获得采集无人机和/或采集无人车检测路径;
建立图像特征坐标点和世界坐标系下三维坐标点的转换关系的具体方法为:
设特征点的像素坐标为limage=(x,y),其在真实世界对应点的三维坐标为Pworld=(X,Y,Z),设二者之间的投影方程为:
limage=PXworld;
添加修正量使等式关系严格成立,即:
limage+v=PXworld
其中v是符合高斯分布的随机误差;
推广至所有时刻,得出整体代价函数表达式:
其中ξ为相机外参数(R,t)对应的李代数,zij表示在位姿ξi处观测到世界点pj的信息;
步骤2中每添加一个关键帧,即检测动态地图与静态地图库是否有重叠的共有区域,如果检测到,执行回环矫正,对于非重叠部分进行地图融合。
2.根据权利要求1所述的基于ORB-SLAM的大型装备结构表面检测路径规划方法,其特征在于,步骤1中估计相机运动轨迹的具体方法为:
(1)识别和提取每帧图像的FAST角点;
(2)对每个角点计算其BRIEF描述子;
(3)选用汉明权重作为度量,采用暴力匹配的方法,计算下一帧所有特征点的BRIEF描述子与当前帧每一个特征点的BRIEF描述子之间的汉明权重,排序后选取汉明权重最大的一个作为匹配点;
(4)选取多对匹配点,采用对极几何估计相机运动。
3.根据权利要求2所述的基于ORB-SLAM的大型装备结构表面检测路径规划方法,其特征在于,步骤(1)识别和提取FAST角点的方法为:
a、将图像转化为灰度图;
b、将图像上的任一像素点记为Pi,并记录其灰度值Gi;
c、对Pi,分别记录其周围半径为3像素的圆上的16个像素点灰度值Gi1~Gi16;
d、对Gi1~Gi16,分别计算与Gi的差的绝对值Ti,i=1,2...16;
e、设置阈值T,统计Ti中不小于T的个数W;
f、设置阈值N,若W≥N,则认为Pi为特征点,反之则剔除Pi;
g、对每个像素,均重复步骤c~f。
4.根据权利要求3所述的基于ORB-SLAM的大型装备结构表面检测路径规划方法,其特征在于,步骤(2)中对每个角点计算其BRIEF描述子的方法为:
a、使用高斯滤波平滑图像,减少噪声干扰;
b、在特征点周围选取一定大小的窗口记作patch,在patch内采用随机选点的方法挑选出来Nd个点对(p,q),Nd取128、256或512;
c、比较每个点对中两点亮度Ip与Iq,若Ip>Iq,则这个点对在二值串对应的值为1,反之为0;
d、对Nd个点对都进行比较,得到的二值串即为BRIEF描述子。
5.根据权利要求4所述的基于ORB-SLAM的大型装备结构表面检测路径规划方法,其特征在于,步骤(3)中对于两个二进制数值串的BRIEF描述子之间的汉明权重是对两个二进制数值串作异或运算后得到的响应中1的数量。
6.根据权利要求5所述的基于ORB-SLAM的大型装备结构表面检测路径规划方法,其特征在于,步骤(3)中当其中一个特征点汉明权重不足最大汉明权重的一半时,将该点对作为误匹配剔除。
7.根据权利要求1所述的基于ORB-SLAM的大型装备结构表面检测路径规划方法,其特征在于,还具有重定位模块,在采集无人机和/或采集无人车SLAM过程中,当系统跟踪失败时,将后续图像进行回环检测,对之前所有关键帧进行试匹配以查找与当前时刻图像最相似的帧,使用PnP的方法根据两帧图像匹配的特征点对计算当前相机位姿,恢复SLAM过程。
8.根据权利要求7所述的基于ORB-SLAM的大型装备结构表面检测路径规划方法,其特征在于,对步骤1的图像中的特征加以分类,将每种类型的特征作为BoW模型中的单词,记为Word,这些单词的集合称为字典,记为Dictionary,对于字典中的所有单词,在一张图片中出现的记为1,不出现的记为0,通过一个由0和1组成的n维向量构成了对图片特征的描述,通过比较此向量的相似程度来确定图像的相似程度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111098458.1A CN113808169B (zh) | 2021-09-18 | 2021-09-18 | 基于orb-slam的大型装备结构表面检测路径规划方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111098458.1A CN113808169B (zh) | 2021-09-18 | 2021-09-18 | 基于orb-slam的大型装备结构表面检测路径规划方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113808169A CN113808169A (zh) | 2021-12-17 |
CN113808169B true CN113808169B (zh) | 2024-04-26 |
Family
ID=78939660
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111098458.1A Active CN113808169B (zh) | 2021-09-18 | 2021-09-18 | 基于orb-slam的大型装备结构表面检测路径规划方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113808169B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118314162B (zh) * | 2024-06-06 | 2024-08-30 | 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) | 一种面向时序性稀疏重建的动态视觉slam方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111667506A (zh) * | 2020-05-14 | 2020-09-15 | 电子科技大学 | 一种基于orb特征点的运动估计方法 |
CN112541423A (zh) * | 2020-12-09 | 2021-03-23 | 北京理工大学重庆创新中心 | 一种同步定位与地图构建方法和系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IL241200A0 (en) * | 2015-09-06 | 2015-11-30 | Unision Air Ltd | System and method for self-geo-location of an unmanned aerial vehicle |
-
2021
- 2021-09-18 CN CN202111098458.1A patent/CN113808169B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111667506A (zh) * | 2020-05-14 | 2020-09-15 | 电子科技大学 | 一种基于orb特征点的运动估计方法 |
CN112541423A (zh) * | 2020-12-09 | 2021-03-23 | 北京理工大学重庆创新中心 | 一种同步定位与地图构建方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113808169A (zh) | 2021-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kim et al. | Deep learning based vehicle position and orientation estimation via inverse perspective mapping image | |
CN112396656B (zh) | 一种视觉与激光雷达融合的室外移动机器人位姿估计方法 | |
Kang et al. | Detection and tracking of moving objects from a moving platform in presence of strong parallax | |
CN109509230A (zh) | 一种应用于多镜头组合式全景相机的slam方法 | |
CN112115874B (zh) | 一种融合云端的视觉slam系统及方法 | |
CN104537709A (zh) | 一种基于位姿变化的实时三维重建关键帧确定方法 | |
Wu et al. | Autonomous seam recognition and feature extraction for multi-pass welding based on laser stripe edge guidance network | |
CN111882602B (zh) | 基于orb特征点和gms匹配过滤器的视觉里程计实现方法 | |
Chen et al. | Identification of autonomous landing sign for unmanned aerial vehicle based on faster regions with convolutional neural network | |
CN112101160B (zh) | 一种面向自动驾驶场景的双目语义slam方法 | |
CN113808169B (zh) | 基于orb-slam的大型装备结构表面检测路径规划方法 | |
Liu | An integrated lidar-slam system for complex environment with noisy point clouds | |
CN116429082A (zh) | 一种基于st-orb特征提取的视觉slam方法 | |
Huang et al. | Monocular visual odometry using learned repeatability and description | |
CN117036404A (zh) | 一种单目热成像同时定位与建图方法和系统 | |
Liu et al. | A robust visual SLAM system in dynamic man-made environments | |
Lang et al. | Vision based object identification and tracking for mobile robot visual servo control | |
Zhao et al. | A robust stereo semi-direct SLAM system based on hybrid pyramid | |
CN114037759B (zh) | 一种室内环境下的动态特征点滤除与重定位方法 | |
CN113899361B (zh) | 基于空间划分的slam快速回环检测方法 | |
CN112025709B (zh) | 一种基于车载摄像头视觉的移动机器人定位系统及方法 | |
CN108534797A (zh) | 一种实时高精度视觉里程计方法 | |
CN114581503A (zh) | 煤矿井下环境建模方法及系统 | |
Zhou et al. | Svo-pl: Stereo visual odometry with fusion of points and line segments | |
Xu et al. | An automatic feature point extraction method based on laser vision for robotic multi-layer multi-pass weld seam tracking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |