CN110866952A - 一种基于深度图编码的重定位与回环检测方法 - Google Patents

一种基于深度图编码的重定位与回环检测方法 Download PDF

Info

Publication number
CN110866952A
CN110866952A CN201910988088.5A CN201910988088A CN110866952A CN 110866952 A CN110866952 A CN 110866952A CN 201910988088 A CN201910988088 A CN 201910988088A CN 110866952 A CN110866952 A CN 110866952A
Authority
CN
China
Prior art keywords
value
key frame
frame
fern
coding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201910988088.5A
Other languages
English (en)
Inventor
颜成钢
李彬
朱尊杰
孙垚棋
张继勇
张勇东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Electronic Science and Technology University
Original Assignee
Hangzhou Electronic Science and Technology University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Electronic Science and Technology University filed Critical Hangzhou Electronic Science and Technology University
Priority to CN201910988088.5A priority Critical patent/CN110866952A/zh
Publication of CN110866952A publication Critical patent/CN110866952A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Abstract

本发明公开了一种基于深度图编码的重定位与回环检测方法。本发明利用RGB‑D相机拍摄出来的深度图,结合所估计的相机位姿来辅助判断回环检测和重定位,即用随机蕨编码的方法对深度图进行编码,比较当前帧深度图与历史关键帧深度图的编码相似性,同时利用两帧图像所估计的相机位姿比较拍摄两帧图像时相机的空间位置相似性,通过当前帧与历史帧的编码相似性与空间位置相似性从而判断相机是否回到了之前到过的区域。本发明在原有的建立在彩色图像的方法上结合新型传感器所带来的深度信息,提供更加稳定的重定位和回环检测效果。并且对图像进行了编码,避免了考虑整幅深度图的信息,大大减小了计算量。同时还考虑了相机位姿,避免了判定结果假阳性的问题。

Description

一种基于深度图编码的重定位与回环检测方法
技术领域
本发明属于计算机视觉的领域,尤其针对SLAM(即时定位与地图构建),具体涉及一种基于深度图编码的重定位与回环检测方法。
背景技术
即时定位与地图构建的实现大致流程为根据设备所搭载的相机在运动过程中拍摄图像,并进行逐帧处理,帧间比较,然后估计出相机的位置的帧间相对变化,依此估计出相机(设备)的运动轨迹,最后由新观测到的帧根据估计出的位姿对地图进行更新。然而,相机在运动过程中,可能会出现导致跟踪失败的情况,如果未能检测出此情况,用错误的位姿去进行了地图的更新,甚至可能毁掉现有的已建立好的地图,而如果跟踪失败能被检测到,那么就能及时阻止对地图的修改,并通过重定位技术在后续的某一时刻重新跟踪相机。由于传感器的误差而导致的累计误差也可能会导致估计的相机轨迹一点点的偏离,最后相机回到了以前到过的地方,真实轨迹形成了一个闭环,但系统估计出来的轨迹可能偏差较大,无法形成闭环。这时回环检测就能将检测出的信息发给后端,由后端进行优化,尽可能减少累计误差带来的影响。
现有的业界提出的重定位与回环检测方案主要是建立在彩色相机拍摄出的彩色图下的,主要基于特征点的方法,通过历史关键帧与当前帧的特征点的对比,从而判断相机是否回到历史区域。但由于彩色图像的特征提取受图片纹理信息的影响较大,在实际应用场景中往往难以满足要求,如低光照、快速运动导致的模糊图像、大白墙等无纹理区域,重定位与回环检测算法的精度在这些场景下会显著降低。
发明内容
本发明的目的是改进由彩色图片信息退化导致的重定位与回环检测误差增大甚至失败的问题。
本发明创新性地使用深度图匹配来实现回环检测和重定位。本发明利用RGB-D相机拍摄出来的深度图,结合所估计的相机位姿来辅助判断回环检测和重定位,即用随机蕨编码的方法对深度图进行编码,比较当前帧深度图与历史关键帧深度图的编码相似性,同时利用两帧图像所估计的相机位姿比较拍摄两帧图像时相机的空间位置相似性,通过当前帧与历史帧的编码相似性与空间位置相似性从而判断相机是否回到了之前到过的区域。本发明步骤如下:
步骤1:预处理
1.1生成随机蕨。确定所需随机选的随机蕨个数N,并随机生成各随机蕨所对应的深度图像像素坐标点位置:
Figure BDA0002237351270000021
第i+1个蕨的坐标为(xi,yi),width,height为深度图片的宽和高,xi的范围在0到width之间,出现在每个值的概率为
Figure BDA0002237351270000022
yi的范围在0到height之间,出现在每个值的概率为
Figure BDA0002237351270000023
1.2选取关于深度信息的K个阈值,用于对深度图像进行编码。
Figure BDA0002237351270000024
Zj=z1z2z3…zk j∈[0,N)
Figure BDA0002237351270000025
为蕨(xj,yj)对应的深度值,λi为K个阈值之一,zi为比较的最终的结果,当
Figure BDA0002237351270000026
时zi=1,当
Figure BDA0002237351270000027
时zi=0,Zj为对应的点(xj,yj)的编码结果,为一个二进制串.
1.3构建数据结构。
结构一:用于储存深度图(当前帧)编码信息,包含:
一个N*1矩阵
Figure BDA0002237351270000028
用于储存深度图的编码值:
Figure BDA0002237351270000029
Figure BDA0002237351270000031
列向量中每个元素Zj为对应的蕨(xj,yj)的编码值,Zj为一个二进制串.把每个Zj分别当一个元素存起来而不是相互串联形成一个长的二进制串,这样有利于多幅深度图编码值相似度的比较,以达到实时计算的目的
结构二:用于储存关键帧的数据,包含:
每个关键帧所对应的3*4大小的矩阵:
[R,t]
由每个关键帧相机位姿对应的旋转R和位移向量t组成
Figure BDA0002237351270000032
结构三:用于快速检索,储存着关于关键帧单个蕨的编码值信息,包含:
一个数据结构:
数据结构包含一个编码值ui,一个列表ids
一个以数据结构为元素的容器:容器内的所有元素中的编码值成员枚举了所有的编码值可能性,一共有2K个元素,如下表所示,每一行代表一个数据结构定义的对象
Figure BDA0002237351270000033
深度图中每个蕨的深度值与K个阈值比较得到一个二进制串,比较结果共有2K种可能性。若关键帧上的蕨的编码值与某个ui相等,就把关键帧的id添加入ui对应的列表ids中。这样做有利于加快检索时的速度。
1.4选取和场景判别有关的阈值γ1、γ2、
Figure BDA0002237351270000041
和τ。
设Qmin为当前帧编码值和所有历史关键帧编码值的比较结果中相似度最小的值,其计算过程在步骤3.1中详细说明。
①阈值γ1用于判别当前帧图像是否可能为曾经到过的场景,如果Qmin1,则认为可能是曾经到达过的场景。
Figure BDA0002237351270000042
为位姿对应的旋转角度的阈值,τ为位姿对应的平移向量的阈值,当:
Figure BDA0002237351270000043
Δt<τ
则可认为相机在拍摄两帧图像时处于非常相近的空间位置和角度。其中Δθ和Δt分别表示所比较的两帧图像的相对旋转和平移。
③在不满足前两者条件下,通过γ2判断是否为新的关键帧,当γ2<Qmin则可把当前帧记录为关键帧。
步骤2:对观测到的深度图进行编码
2.1对深度图像上的每一个蕨进行编码,设阈值为λi i∈K,蕨的坐标为αj=(xj,yj),蕨对应的值f(αj),迭代计算:
Figure BDA0002237351270000044
Zj=z1z2z3…zk j∈[1,N]
zi为f(αj)和λi的比较结果,把{zi i∈[0,K)}串联起来形成Zj,把Zj依次存入结构一的N*1矩阵中,形成深度图的二进制编码
Figure BDA0002237351270000045
Figure BDA0002237351270000046
2.2估计深度图对应的相机位姿T,存入结构二中。
步骤3:计算二进制编码的相似
3.1设已有关键帧的个数为m,VI为第n个关键帧的二进制编码,VJ为新观测到的帧的二进制编码,迭代比较:
Figure BDA0002237351270000047
Q={Q1,Q2,Q3,Q4…Qm}
m为当前已有关键帧的数量,Vi为向量V的第i的元素,若
Figure BDA0002237351270000051
Figure BDA0002237351270000052
相等
Figure BDA0002237351270000053
返回0,若
Figure BDA0002237351270000054
Figure BDA0002237351270000055
不等则返回1。把归一化的结果Qh作为一个元素用一个向量分别存起来形成向量Q.
步骤4:判别场景是否是刚经历的还是以前到过的
1).根据阈值γ1,用于判别是否可能为曾经到过的场景;
2).根据阈值
Figure BDA0002237351270000058
在满足1)的情况下,判别当前帧位姿对应的旋转角和关键帧位姿对应的旋转角的差值Δθ是否为合理值,若满足
Figure BDA0002237351270000059
则为合理值,合理则确实为曾经到过的场景;
3).根据阈值τ,判别当前帧位姿对应的位移向量tnow和关键帧位姿对应的位移向量的差值Δt是否为合理值,若满足Δt<τ则为合理值,在满足2)的情况下满足3)则认为确实是关键帧;
根据阈值γ212),在不满足γ1的情况下判断是否可认为是关键帧;
设min(Q)=Qmin,为对应的Q的最小值,id为min(Q)得出的元素的索引值,即关键帧的id。
获取关键帧id对应的旋转角和平移向量,设为θid和tid
Qmin1则可视当前帧为可疑帧,可能为曾经到过的场景,进一步判断:
通过当前帧与所比较历史帧在结构二中的位姿,计算它们的相对运动。设相对旋转矩阵为ΔR,通过罗德里格斯公式:
R=cosθI+(1-cosθ)nnT+sinθn^
可得相对旋转角Δθ:
Figure BDA0002237351270000056
而相对空间平移则为结构二平移t的差值,若满足
Figure BDA0002237351270000057
则可认为是曾经经历过的场景。
若Qmin2则可考虑把当前帧提取为关键帧,生成对应的唯一的id值,并将蕨的编码值信息写入结构三,并以id为名命名结构二储存对应的旋转和平移,以方便检索。
本发明的特点及有益效果:
本发明在原有的建立在彩色图像的方法上,结合了新型传感器所带来的深度信息,提供更加稳定的重定位和回环检测效果。并且对图像进行了编码,避免了考虑整幅深度图的信息,大大减小了计算量,以及在一定程度上避免了噪点的干扰。同时还考虑了相机位姿,避免了判定结果假阳性的问题,使算法更加稳定。
附图说明
图1为本发明方法流程图。
具体实施方式:
下面结合附图和实施例对本发明作进一步说明。
实施例:
一.前期准备
根据相机拍摄的深度图的大小确定所需选取的蕨的个数N,在图片上随机均匀选取N个蕨,并以一个向量的形式按顺序保存所有计算出的蕨的坐标α={α0123,…},αj为单个蕨的坐标。
定义一个类info,类由N*1的矩阵成员,位姿信息[R3*3|t3*1]成员构成。
定义一个二维向量counts,用于统计每一帧的蕨相对于结构三的搜索结果:
ids 1 2
count 0 0 0
第一维表示关键帧对应的id,第二维表示id对应的关键帧的蕨在与当前帧检索过程中蕨编码值相同的次数。
用视频流第一帧作为第一个关键帧,生成id,初始化结构三。
二.深度图编码
对当前帧深度图进行编码:
Figure BDA0002237351270000071
Zj=z1z2z3…zk j∈[1,N]
VJ=[Z1,Z2,Z3…ZN]T
把编码结果用info定义的对象temp储存,并同时估计相机位姿,一并存入temp对象。
三.场景判别
把当前帧的二进制编码信息和关键帧的编码信息进行比较,得出Qmin,通过结构三快速进行。
大致方法如下:
按照前期准备中保存的点向量α的元素顺序进行比较。
迭代进行:
当前帧的蕨{αi i∈[0,N)}对应的编码值和结构三第一列比较,设uj和αi相同,uj对应的结构三中第二列中所有的id在对象counts中的次数+1;
迭代完成后,找出counts中统计次数最多的id,其次数为λ,计算:
Figure BDA0002237351270000072
若Q<γ1:
则读取关键帧id对应的结构二,计算当前帧对应的旋转角度θnow,位移向量tnow,若满足
Figure BDA0002237351270000073
则确定当前帧对应的场景为曾经到过的场景。
若Q>γ2:
则存为关键帧,生成id,用temp对应的蕨的信息,更新结构三,用当前帧对应的旋转及位移向量创建以id为名的结构二。

Claims (4)

1.一种基于深度图编码的重定位与回环检测方法,其特征在于包括如下步骤:
步骤1:预处理
1-1.生成随机蕨,确定所需随机选的随机蕨个数N,并随机生成各随机蕨所对应的深度图像的像素坐标点位置:
Figure FDA0002237351260000011
第i+1个蕨的坐标为(xi,yi),width,height为深度图像的宽和高,xi的范围在0到width之间,出现在每个值的概率为
Figure FDA0002237351260000012
yi的范围在0到height之间,出现在每个值的概率为
Figure FDA0002237351260000013
1-2.选取关于深度信息的K个阈值,用于对深度图像进行编码。
Figure FDA0002237351260000014
Zj=z1z2z3…zk j∈[1,N]
Figure FDA0002237351260000015
为蕨(xj,yj)对应的深度值,λi为K个阈值之一,zi为比较的最终的结果,当
Figure FDA0002237351260000016
时,zi=1;当
Figure FDA0002237351260000017
时,zi=0;Zj为对应的点(xj,yj)的编码结果,为一个二进制串.
1-3.构建数据结构。
结构一:用于储存当前深度图的编码信息,包含:
一个N*1矩阵Z1,用于储存深度图的编码值Zj;矩阵中每个元素Zj为对应的蕨(xj,yj)的编码值,Zj为一个二进制串,把每个Zj分别当一个元素存起来而不是相互串联形成一个长的二进制串,这样有利于多幅深度图编码值相似度的比较,以达到实时计算的目的
结构二:用于储存关键帧的数据,包含:
每个关键帧所对应的3*4大小的矩阵[R,t];
矩阵[R,t]由每个关键帧相机位姿对应的旋转R和位移向量t组成;
Figure FDA0002237351260000018
结构三:用于快速检索,储存着关于关键帧单个蕨的编码值信息,包含一个数据结构:
数据结构包含一个编码值ui,一个列表ids
一个以数据结构为元素的容器:容器内的所有元素中的编码值成员枚举了所有的编码值可能性,一共有2K个元素,如下表所示,每一行代表一个数据结构定义的对象:
Figure FDA0002237351260000021
深度图中每个蕨的深度值与K个阈值比较得到一个二进制串,比较结果共有2K种可能性。若关键帧上的蕨的编码值与某个ui相等,就把关键帧的id添加入ui对应的列表ids中,从而有利于加快检索时的速度。
1-4.选取和场景判别有关的阈值γ1、γ2、
Figure FDA0002237351260000022
和τ。
设Qmin为当前帧编码值和所有历史关键帧编码值的比较结果中相似度最小的值。
①阈值γ1用于判别当前帧图像是否可能为曾经到过的场景,如果Qmin1,则认为可能是曾经到达过的场景。
Figure FDA0002237351260000023
为位姿对应的旋转角度的阈值,τ为位姿对应的平移向量的阈值,当:
Figure FDA0002237351260000024
Δt<τ
则可认为相机在拍摄两帧图像时处于非常相近的空间位置和角度。其中Δθ和Δt分别表示所比较的两帧图像的相对旋转和平移。
③在不满足前两者条件下,通过γ2判断是否为新的关键帧,当γ2<Qmin则可把当前帧记录为关键帧。
步骤2:对观测到的深度图进行编码;
步骤3:计算二进制编码的相似;
步骤4:判别场景是否是刚经历的还是以前到过的。
2.根据权利要求1所述的一种基于深度图编码的重定位与回环检测方法,其特征在于步骤2具体实现如下:
2-1.对深度图像上的每一个蕨进行编码,设阈值为λi i∈K,蕨的坐标为αj=(xj,yj),蕨对应的值f(αj),迭代计算:
Figure FDA0002237351260000031
Zj=z1z2z3…zk j∈[1,N]
zi为f(αj)和λi的比较结果,把{Zi i∈[0,K)}串联起来形成Zj,把Zj依次存入结构一的N*1矩阵中,形成深度图像的二进制编码
Figure FDA0002237351260000032
2-2.估计深度图像对应的相机位姿T,存入结构二中。
3.根据权利要求1或2所述的一种基于深度图编码的重定位与回环检测方法,其特征在于步骤3所述的计算二进制编码的相似,具体实现如下:
3-1.设已有关键帧的个数为m,VI为第n个关键帧的二进制编码,VJ为新观测到的帧的二进制编码,迭代比较:
Figure FDA0002237351260000033
Q={Q1,Q2,Q3,Q4…Qm}
m为当前已有关键帧的数量,其中,Vi为向量V的第i的元素,若
Figure FDA0002237351260000034
Figure FDA0002237351260000035
相等
Figure FDA0002237351260000036
返回0,若
Figure FDA0002237351260000037
Figure FDA0002237351260000038
不等则返回1。把归一化的结果Qh作为一个元素用一个向量分别存起来形成向量Q。
4.根据权利要求3所述的一种基于深度图编码的重定位与回环检测方法,其特征在于步骤4所述的判别场景是否是刚经历的还是以前到过的,具体如下:
4-1.根据阈值γ1,判别是否可能为曾经到过的场景;
4-2.根据阈值
Figure FDA0002237351260000039
在满足步骤4-1的情况下,判别当前帧位姿对应的旋转角和关键帧位姿对应的旋转角的差值是否为合理值,若满足
Figure FDA00022373512600000310
则为合理值,若为合理值则确实为曾经到过的场景;
4-3.根据阈值τ,判别当前帧位姿对应的位移向量tnow和关键帧位姿对应的位移向量的差值Δt是否为合理值,若满足Δt<τ则为合理值,在满足步骤4-2的情况下,同时满足阈值τ的判断,则认为确实是关键帧;
4-4.根据阈值γ212),在不满足γ1的情况下判断是否可认为是关键帧,具体如下:
设min(Q)=Qmin,为对应的Q的最小值,id为min(Q)得出的元素的索引值,即关键帧的id。
获取关键帧id对应的旋转角和平移向量,设为θid和tid
若Qmin1,则可视当前帧为可疑帧,可能为曾经到过的场景,进一步判断:
通过当前帧与所比较历史帧在结构二中的位姿,计算它们的相对运动。设相对旋转矩阵为ΔR,通过罗德里格斯公式:
R=cosθI+(1-cosθ)nnT+sinθn^
可得相对旋转角Δθ:
Figure FDA0002237351260000041
而相对空间平移则为结构二平移t的差值,若满足
Figure FDA0002237351260000042
则可认为是曾经经历过的场景。
若Qmin2,则可考虑把当前帧提取为关键帧,生成对应的唯一的id值,并将蕨的编码值信息写入结构三,并以id为名命名结构二储存对应的旋转和平移,以方便检索。
CN201910988088.5A 2019-10-17 2019-10-17 一种基于深度图编码的重定位与回环检测方法 Withdrawn CN110866952A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910988088.5A CN110866952A (zh) 2019-10-17 2019-10-17 一种基于深度图编码的重定位与回环检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910988088.5A CN110866952A (zh) 2019-10-17 2019-10-17 一种基于深度图编码的重定位与回环检测方法

Publications (1)

Publication Number Publication Date
CN110866952A true CN110866952A (zh) 2020-03-06

Family

ID=69652344

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910988088.5A Withdrawn CN110866952A (zh) 2019-10-17 2019-10-17 一种基于深度图编码的重定位与回环检测方法

Country Status (1)

Country Link
CN (1) CN110866952A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112819893A (zh) * 2021-02-08 2021-05-18 北京航空航天大学 三维语义地图的构建方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108133496A (zh) * 2017-12-22 2018-06-08 北京工业大学 一种基于g2o与随机蕨类的稠密地图创建方法
CN108364344A (zh) * 2018-02-08 2018-08-03 重庆邮电大学 一种基于回环测试的单目实时三维重建方法
CN109636831A (zh) * 2018-12-19 2019-04-16 安徽大学 一种估计三维人体姿态及手部信息的方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108133496A (zh) * 2017-12-22 2018-06-08 北京工业大学 一种基于g2o与随机蕨类的稠密地图创建方法
CN108364344A (zh) * 2018-02-08 2018-08-03 重庆邮电大学 一种基于回环测试的单目实时三维重建方法
CN109636831A (zh) * 2018-12-19 2019-04-16 安徽大学 一种估计三维人体姿态及手部信息的方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
刘洋: "随机蕨编码在三维重建中的应用", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112819893A (zh) * 2021-02-08 2021-05-18 北京航空航天大学 三维语义地图的构建方法和装置

Similar Documents

Publication Publication Date Title
WO2021196294A1 (zh) 一种跨视频人员定位追踪方法、系统及设备
CN114782691B (zh) 基于深度学习的机器人目标识别与运动检测方法、存储介质及设备
Wang et al. Towards dense moving object segmentation based robust dense RGB-D SLAM in dynamic scenarios
CN110717411A (zh) 一种基于深层特征融合的行人重识别方法
CN104517289B (zh) 一种基于混合摄像机的室内场景定位方法
Wang et al. A unified framework for mutual improvement of SLAM and semantic segmentation
CN101860729A (zh) 一种用于全方位视觉的目标跟踪方法
CN105930790A (zh) 基于核稀疏编码的人体行为识别方法
CN109389156B (zh) 一种图像定位模型的训练方法、装置及图像定位方法
CN111832484A (zh) 一种基于卷积感知哈希算法的回环检测方法
CN112541434B (zh) 一种基于中心点跟踪模型的人脸识别方法
Iraei et al. Object tracking with occlusion handling using mean shift, Kalman filter and edge histogram
CN109063549A (zh) 基于深度神经网络的高分辨率航拍视频运动目标检测方法
Cieslewski et al. Matching features without descriptors: implicitly matched interest points
CN114241007A (zh) 基于跨任务互学习的多目标跟踪方法、终端设备及介质
CN116188825A (zh) 一种基于并行注意力机制的高效特征匹配方法
CN115565130A (zh) 一种无人值守系统及其基于光流的监控方法
CN107644203A (zh) 一种形状自适应分类的特征点检测方法
CN110866952A (zh) 一种基于深度图编码的重定位与回环检测方法
Kim et al. Simultaneous foreground detection and classification with hybrid features
CN116958595A (zh) 一种基于图像块区域特征点的视觉slam回环检测改进方法
Zhang et al. Target tracking for mobile robot platforms via object matching and background anti-matching
CN114707611B (zh) 基于图神经网络特征提取与匹配的移动机器人地图构建方法、存储介质及设备
CN107291813B (zh) 基于语义分割场景的示例搜索方法
CN116597174A (zh) 一种基于深度学习的视觉slam回环检测系统及其方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20200306

WW01 Invention patent application withdrawn after publication