CN110866952A - 一种基于深度图编码的重定位与回环检测方法 - Google Patents
一种基于深度图编码的重定位与回环检测方法 Download PDFInfo
- Publication number
- CN110866952A CN110866952A CN201910988088.5A CN201910988088A CN110866952A CN 110866952 A CN110866952 A CN 110866952A CN 201910988088 A CN201910988088 A CN 201910988088A CN 110866952 A CN110866952 A CN 110866952A
- Authority
- CN
- China
- Prior art keywords
- value
- key frame
- frame
- fern
- coding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Abstract
本发明公开了一种基于深度图编码的重定位与回环检测方法。本发明利用RGB‑D相机拍摄出来的深度图,结合所估计的相机位姿来辅助判断回环检测和重定位,即用随机蕨编码的方法对深度图进行编码,比较当前帧深度图与历史关键帧深度图的编码相似性,同时利用两帧图像所估计的相机位姿比较拍摄两帧图像时相机的空间位置相似性,通过当前帧与历史帧的编码相似性与空间位置相似性从而判断相机是否回到了之前到过的区域。本发明在原有的建立在彩色图像的方法上结合新型传感器所带来的深度信息,提供更加稳定的重定位和回环检测效果。并且对图像进行了编码,避免了考虑整幅深度图的信息,大大减小了计算量。同时还考虑了相机位姿,避免了判定结果假阳性的问题。
Description
技术领域
本发明属于计算机视觉的领域,尤其针对SLAM(即时定位与地图构建),具体涉及一种基于深度图编码的重定位与回环检测方法。
背景技术
即时定位与地图构建的实现大致流程为根据设备所搭载的相机在运动过程中拍摄图像,并进行逐帧处理,帧间比较,然后估计出相机的位置的帧间相对变化,依此估计出相机(设备)的运动轨迹,最后由新观测到的帧根据估计出的位姿对地图进行更新。然而,相机在运动过程中,可能会出现导致跟踪失败的情况,如果未能检测出此情况,用错误的位姿去进行了地图的更新,甚至可能毁掉现有的已建立好的地图,而如果跟踪失败能被检测到,那么就能及时阻止对地图的修改,并通过重定位技术在后续的某一时刻重新跟踪相机。由于传感器的误差而导致的累计误差也可能会导致估计的相机轨迹一点点的偏离,最后相机回到了以前到过的地方,真实轨迹形成了一个闭环,但系统估计出来的轨迹可能偏差较大,无法形成闭环。这时回环检测就能将检测出的信息发给后端,由后端进行优化,尽可能减少累计误差带来的影响。
现有的业界提出的重定位与回环检测方案主要是建立在彩色相机拍摄出的彩色图下的,主要基于特征点的方法,通过历史关键帧与当前帧的特征点的对比,从而判断相机是否回到历史区域。但由于彩色图像的特征提取受图片纹理信息的影响较大,在实际应用场景中往往难以满足要求,如低光照、快速运动导致的模糊图像、大白墙等无纹理区域,重定位与回环检测算法的精度在这些场景下会显著降低。
发明内容
本发明的目的是改进由彩色图片信息退化导致的重定位与回环检测误差增大甚至失败的问题。
本发明创新性地使用深度图匹配来实现回环检测和重定位。本发明利用RGB-D相机拍摄出来的深度图,结合所估计的相机位姿来辅助判断回环检测和重定位,即用随机蕨编码的方法对深度图进行编码,比较当前帧深度图与历史关键帧深度图的编码相似性,同时利用两帧图像所估计的相机位姿比较拍摄两帧图像时相机的空间位置相似性,通过当前帧与历史帧的编码相似性与空间位置相似性从而判断相机是否回到了之前到过的区域。本发明步骤如下:
步骤1:预处理
1.1生成随机蕨。确定所需随机选的随机蕨个数N,并随机生成各随机蕨所对应的深度图像像素坐标点位置:
1.2选取关于深度信息的K个阈值,用于对深度图像进行编码。
Zj=z1z2z3…zk j∈[0,N)
1.3构建数据结构。
结构一:用于储存深度图(当前帧)编码信息,包含:
列向量中每个元素Zj为对应的蕨(xj,yj)的编码值,Zj为一个二进制串.把每个Zj分别当一个元素存起来而不是相互串联形成一个长的二进制串,这样有利于多幅深度图编码值相似度的比较,以达到实时计算的目的
结构二:用于储存关键帧的数据,包含:
每个关键帧所对应的3*4大小的矩阵:
[R,t]
由每个关键帧相机位姿对应的旋转R和位移向量t组成
结构三:用于快速检索,储存着关于关键帧单个蕨的编码值信息,包含:
一个数据结构:
数据结构包含一个编码值ui,一个列表ids
一个以数据结构为元素的容器:容器内的所有元素中的编码值成员枚举了所有的编码值可能性,一共有2K个元素,如下表所示,每一行代表一个数据结构定义的对象
深度图中每个蕨的深度值与K个阈值比较得到一个二进制串,比较结果共有2K种可能性。若关键帧上的蕨的编码值与某个ui相等,就把关键帧的id添加入ui对应的列表ids中。这样做有利于加快检索时的速度。
设Qmin为当前帧编码值和所有历史关键帧编码值的比较结果中相似度最小的值,其计算过程在步骤3.1中详细说明。
①阈值γ1用于判别当前帧图像是否可能为曾经到过的场景,如果Qmin<γ1,则认为可能是曾经到达过的场景。
Δt<τ
则可认为相机在拍摄两帧图像时处于非常相近的空间位置和角度。其中Δθ和Δt分别表示所比较的两帧图像的相对旋转和平移。
③在不满足前两者条件下,通过γ2判断是否为新的关键帧,当γ2<Qmin则可把当前帧记录为关键帧。
步骤2:对观测到的深度图进行编码
2.1对深度图像上的每一个蕨进行编码,设阈值为λi i∈K,蕨的坐标为αj=(xj,yj),蕨对应的值f(αj),迭代计算:
Zj=z1z2z3…zk j∈[1,N]
2.2估计深度图对应的相机位姿T,存入结构二中。
步骤3:计算二进制编码的相似
3.1设已有关键帧的个数为m,VI为第n个关键帧的二进制编码,VJ为新观测到的帧的二进制编码,迭代比较:
Q={Q1,Q2,Q3,Q4…Qm}
步骤4:判别场景是否是刚经历的还是以前到过的
1).根据阈值γ1,用于判别是否可能为曾经到过的场景;
3).根据阈值τ,判别当前帧位姿对应的位移向量tnow和关键帧位姿对应的位移向量的差值Δt是否为合理值,若满足Δt<τ则为合理值,在满足2)的情况下满足3)则认为确实是关键帧;
根据阈值γ2(γ1<γ2),在不满足γ1的情况下判断是否可认为是关键帧;
设min(Q)=Qmin,为对应的Q的最小值,id为min(Q)得出的元素的索引值,即关键帧的id。
获取关键帧id对应的旋转角和平移向量,设为θid和tid。
Qmin<γ1则可视当前帧为可疑帧,可能为曾经到过的场景,进一步判断:
通过当前帧与所比较历史帧在结构二中的位姿,计算它们的相对运动。设相对旋转矩阵为ΔR,通过罗德里格斯公式:
R=cosθI+(1-cosθ)nnT+sinθn^
可得相对旋转角Δθ:
而相对空间平移则为结构二平移t的差值,若满足
则可认为是曾经经历过的场景。
若Qmin>γ2则可考虑把当前帧提取为关键帧,生成对应的唯一的id值,并将蕨的编码值信息写入结构三,并以id为名命名结构二储存对应的旋转和平移,以方便检索。
本发明的特点及有益效果:
本发明在原有的建立在彩色图像的方法上,结合了新型传感器所带来的深度信息,提供更加稳定的重定位和回环检测效果。并且对图像进行了编码,避免了考虑整幅深度图的信息,大大减小了计算量,以及在一定程度上避免了噪点的干扰。同时还考虑了相机位姿,避免了判定结果假阳性的问题,使算法更加稳定。
附图说明
图1为本发明方法流程图。
具体实施方式:
下面结合附图和实施例对本发明作进一步说明。
实施例:
一.前期准备
根据相机拍摄的深度图的大小确定所需选取的蕨的个数N,在图片上随机均匀选取N个蕨,并以一个向量的形式按顺序保存所有计算出的蕨的坐标α={α0,α1,α2,α3,…},αj为单个蕨的坐标。
定义一个类info,类由N*1的矩阵成员,位姿信息[R3*3|t3*1]成员构成。
定义一个二维向量counts,用于统计每一帧的蕨相对于结构三的搜索结果:
ids | 1 | 2 | … |
count | 0 | 0 | 0 |
第一维表示关键帧对应的id,第二维表示id对应的关键帧的蕨在与当前帧检索过程中蕨编码值相同的次数。
用视频流第一帧作为第一个关键帧,生成id,初始化结构三。
二.深度图编码
对当前帧深度图进行编码:
Zj=z1z2z3…zk j∈[1,N]
VJ=[Z1,Z2,Z3…ZN]T
把编码结果用info定义的对象temp储存,并同时估计相机位姿,一并存入temp对象。
三.场景判别
把当前帧的二进制编码信息和关键帧的编码信息进行比较,得出Qmin,通过结构三快速进行。
大致方法如下:
按照前期准备中保存的点向量α的元素顺序进行比较。
迭代进行:
当前帧的蕨{αi i∈[0,N)}对应的编码值和结构三第一列比较,设uj和αi相同,uj对应的结构三中第二列中所有的id在对象counts中的次数+1;
迭代完成后,找出counts中统计次数最多的id,其次数为λ,计算:
若Q<γ1:
若Q>γ2:
则存为关键帧,生成id,用temp对应的蕨的信息,更新结构三,用当前帧对应的旋转及位移向量创建以id为名的结构二。
Claims (4)
1.一种基于深度图编码的重定位与回环检测方法,其特征在于包括如下步骤:
步骤1:预处理
1-1.生成随机蕨,确定所需随机选的随机蕨个数N,并随机生成各随机蕨所对应的深度图像的像素坐标点位置:
1-2.选取关于深度信息的K个阈值,用于对深度图像进行编码。
Zj=z1z2z3…zk j∈[1,N]
1-3.构建数据结构。
结构一:用于储存当前深度图的编码信息,包含:
一个N*1矩阵Z1,用于储存深度图的编码值Zj;矩阵中每个元素Zj为对应的蕨(xj,yj)的编码值,Zj为一个二进制串,把每个Zj分别当一个元素存起来而不是相互串联形成一个长的二进制串,这样有利于多幅深度图编码值相似度的比较,以达到实时计算的目的
结构二:用于储存关键帧的数据,包含:
每个关键帧所对应的3*4大小的矩阵[R,t];
矩阵[R,t]由每个关键帧相机位姿对应的旋转R和位移向量t组成;
结构三:用于快速检索,储存着关于关键帧单个蕨的编码值信息,包含一个数据结构:
数据结构包含一个编码值ui,一个列表ids
一个以数据结构为元素的容器:容器内的所有元素中的编码值成员枚举了所有的编码值可能性,一共有2K个元素,如下表所示,每一行代表一个数据结构定义的对象:
深度图中每个蕨的深度值与K个阈值比较得到一个二进制串,比较结果共有2K种可能性。若关键帧上的蕨的编码值与某个ui相等,就把关键帧的id添加入ui对应的列表ids中,从而有利于加快检索时的速度。
设Qmin为当前帧编码值和所有历史关键帧编码值的比较结果中相似度最小的值。
①阈值γ1用于判别当前帧图像是否可能为曾经到过的场景,如果Qmin<γ1,则认为可能是曾经到达过的场景。
Δt<τ
则可认为相机在拍摄两帧图像时处于非常相近的空间位置和角度。其中Δθ和Δt分别表示所比较的两帧图像的相对旋转和平移。
③在不满足前两者条件下,通过γ2判断是否为新的关键帧,当γ2<Qmin则可把当前帧记录为关键帧。
步骤2:对观测到的深度图进行编码;
步骤3:计算二进制编码的相似;
步骤4:判别场景是否是刚经历的还是以前到过的。
4.根据权利要求3所述的一种基于深度图编码的重定位与回环检测方法,其特征在于步骤4所述的判别场景是否是刚经历的还是以前到过的,具体如下:
4-1.根据阈值γ1,判别是否可能为曾经到过的场景;
4-3.根据阈值τ,判别当前帧位姿对应的位移向量tnow和关键帧位姿对应的位移向量的差值Δt是否为合理值,若满足Δt<τ则为合理值,在满足步骤4-2的情况下,同时满足阈值τ的判断,则认为确实是关键帧;
4-4.根据阈值γ2(γ1<γ2),在不满足γ1的情况下判断是否可认为是关键帧,具体如下:
设min(Q)=Qmin,为对应的Q的最小值,id为min(Q)得出的元素的索引值,即关键帧的id。
获取关键帧id对应的旋转角和平移向量,设为θid和tid。
若Qmin<γ1,则可视当前帧为可疑帧,可能为曾经到过的场景,进一步判断:
通过当前帧与所比较历史帧在结构二中的位姿,计算它们的相对运动。设相对旋转矩阵为ΔR,通过罗德里格斯公式:
R=cosθI+(1-cosθ)nnT+sinθn^
可得相对旋转角Δθ:
而相对空间平移则为结构二平移t的差值,若满足
则可认为是曾经经历过的场景。
若Qmin>γ2,则可考虑把当前帧提取为关键帧,生成对应的唯一的id值,并将蕨的编码值信息写入结构三,并以id为名命名结构二储存对应的旋转和平移,以方便检索。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910988088.5A CN110866952A (zh) | 2019-10-17 | 2019-10-17 | 一种基于深度图编码的重定位与回环检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910988088.5A CN110866952A (zh) | 2019-10-17 | 2019-10-17 | 一种基于深度图编码的重定位与回环检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110866952A true CN110866952A (zh) | 2020-03-06 |
Family
ID=69652344
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910988088.5A Withdrawn CN110866952A (zh) | 2019-10-17 | 2019-10-17 | 一种基于深度图编码的重定位与回环检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110866952A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112819893A (zh) * | 2021-02-08 | 2021-05-18 | 北京航空航天大学 | 三维语义地图的构建方法和装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108133496A (zh) * | 2017-12-22 | 2018-06-08 | 北京工业大学 | 一种基于g2o与随机蕨类的稠密地图创建方法 |
CN108364344A (zh) * | 2018-02-08 | 2018-08-03 | 重庆邮电大学 | 一种基于回环测试的单目实时三维重建方法 |
CN109636831A (zh) * | 2018-12-19 | 2019-04-16 | 安徽大学 | 一种估计三维人体姿态及手部信息的方法 |
-
2019
- 2019-10-17 CN CN201910988088.5A patent/CN110866952A/zh not_active Withdrawn
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108133496A (zh) * | 2017-12-22 | 2018-06-08 | 北京工业大学 | 一种基于g2o与随机蕨类的稠密地图创建方法 |
CN108364344A (zh) * | 2018-02-08 | 2018-08-03 | 重庆邮电大学 | 一种基于回环测试的单目实时三维重建方法 |
CN109636831A (zh) * | 2018-12-19 | 2019-04-16 | 安徽大学 | 一种估计三维人体姿态及手部信息的方法 |
Non-Patent Citations (1)
Title |
---|
刘洋: "随机蕨编码在三维重建中的应用", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112819893A (zh) * | 2021-02-08 | 2021-05-18 | 北京航空航天大学 | 三维语义地图的构建方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021196294A1 (zh) | 一种跨视频人员定位追踪方法、系统及设备 | |
CN114782691B (zh) | 基于深度学习的机器人目标识别与运动检测方法、存储介质及设备 | |
Wang et al. | Towards dense moving object segmentation based robust dense RGB-D SLAM in dynamic scenarios | |
CN110717411A (zh) | 一种基于深层特征融合的行人重识别方法 | |
CN104517289B (zh) | 一种基于混合摄像机的室内场景定位方法 | |
Wang et al. | A unified framework for mutual improvement of SLAM and semantic segmentation | |
CN101860729A (zh) | 一种用于全方位视觉的目标跟踪方法 | |
CN105930790A (zh) | 基于核稀疏编码的人体行为识别方法 | |
CN109389156B (zh) | 一种图像定位模型的训练方法、装置及图像定位方法 | |
CN111832484A (zh) | 一种基于卷积感知哈希算法的回环检测方法 | |
CN112541434B (zh) | 一种基于中心点跟踪模型的人脸识别方法 | |
Iraei et al. | Object tracking with occlusion handling using mean shift, Kalman filter and edge histogram | |
CN109063549A (zh) | 基于深度神经网络的高分辨率航拍视频运动目标检测方法 | |
Cieslewski et al. | Matching features without descriptors: implicitly matched interest points | |
CN114241007A (zh) | 基于跨任务互学习的多目标跟踪方法、终端设备及介质 | |
CN116188825A (zh) | 一种基于并行注意力机制的高效特征匹配方法 | |
CN115565130A (zh) | 一种无人值守系统及其基于光流的监控方法 | |
CN107644203A (zh) | 一种形状自适应分类的特征点检测方法 | |
CN110866952A (zh) | 一种基于深度图编码的重定位与回环检测方法 | |
Kim et al. | Simultaneous foreground detection and classification with hybrid features | |
CN116958595A (zh) | 一种基于图像块区域特征点的视觉slam回环检测改进方法 | |
Zhang et al. | Target tracking for mobile robot platforms via object matching and background anti-matching | |
CN114707611B (zh) | 基于图神经网络特征提取与匹配的移动机器人地图构建方法、存储介质及设备 | |
CN107291813B (zh) | 基于语义分割场景的示例搜索方法 | |
CN116597174A (zh) | 一种基于深度学习的视觉slam回环检测系统及其方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20200306 |
|
WW01 | Invention patent application withdrawn after publication |