CN109903343B - 一种基于惯性姿态约束的特征匹配方法 - Google Patents

一种基于惯性姿态约束的特征匹配方法 Download PDF

Info

Publication number
CN109903343B
CN109903343B CN201910149805.5A CN201910149805A CN109903343B CN 109903343 B CN109903343 B CN 109903343B CN 201910149805 A CN201910149805 A CN 201910149805A CN 109903343 B CN109903343 B CN 109903343B
Authority
CN
China
Prior art keywords
grid
image
matching
feature
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910149805.5A
Other languages
English (en)
Other versions
CN109903343A (zh
Inventor
程向红
高源东
王子卉
丁鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN201910149805.5A priority Critical patent/CN109903343B/zh
Publication of CN109903343A publication Critical patent/CN109903343A/zh
Application granted granted Critical
Publication of CN109903343B publication Critical patent/CN109903343B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于惯性姿态约束的特征匹配方法。首先将待匹配的两幅图像进行栅格化处理并检测ORB特征点,并选出含有较多特征点的栅格,并将惯性测量单元输出的姿态信息作为特征匹配的约束条件;其次,按照汉明距离进行排序和粗匹配,选取汉明距离不大于最小距离一定倍数的特征点对作为正确匹配点对,并将汉明距离介于一定距离的特征点对作为待定匹配点对;最后利用g2o非线性优化方法求解本质矩阵,利用本质矩阵恢复图像的位姿信息,对待定匹配点对使用对极约束条件,将满足自适应阈值条件的待定特征点对加入正确匹配点对,从而提高图像的匹配准确度。基于惯性姿态约束的ORB特征匹配方法误匹配点数减少,鲁棒性更高。

Description

一种基于惯性姿态约束的特征匹配方法
技术领域:
本发明涉及一种基于惯性姿态约束的特征匹配方法,属于同时定位与建图的前端技术领域。
背景技术:
近年来,涌现出了许多与SLAM(Simultaneous Localization and Mapping,同时定位与建图,简写SLAM)相关的应用场景,如室内扫地机器人,自动驾驶汽车和无人机等。视觉SLAM是以图像为主要环境感知信息源的SLAM系统,主要分为视觉前端和优化后端。前端也称为视觉里程计,主要作用是根据相邻图像的信息粗略估计出相机运动,给后端提供较好的初始值。前端按照是否需要提取特征分为特征点法和直接法。基于特征点法的前端运行稳定,对光照和动态物体不敏感,是目前比较成熟的解决方案。其中,ORB(Oriented FASTand Rotated BRIEF)特征是目前具有代表性的实时图像特征,它改进了FAST(Featuresfrom Accelerated Segment Test)角点不具有方向性的问题,并采用速度极快的二进制描述子BRIEF(Binary Robust Independent Elementary Feature),减少了图像特征提取的时间。
剔除误匹配点是特征匹配技术的一个重要环节,对提高视觉SLAM姿态估计精度有重要意义。当相机运动过快时图像会出现模糊,使得误匹配点数增多,从而降低匹配质量。利用惯性测量单元的输出信息,可以为待匹配图像提供一个比较准确的姿态信息。基于此,采用基于惯性姿态约束的ORB特征匹配技术进行图像特征匹配时,可以有效解决匹配点对分布集中、误匹配数目较多和匹配效率低等问题。
发明内容
本发明的目的是提供一种基于惯性姿态约束的特征匹配方法,可以有效解决匹配点对分布集中、误匹配数目较多和匹配效率低等问题。
上述的目的通过以下技术方案实现:
一种基于惯性姿态约束的特征匹配方法,该方法包括如下步骤:
(1)将待匹配的两幅图像栅格化,栅格边长为a,并将每个栅格进行编号:第一幅图像的栅格编号记为Apq,表示该栅格位于第一幅图像栅格阵列的第p行和第q列;第二幅图像的栅格编号记为Bpq,表示该栅格位于第二幅图像栅格阵列的第p行和第q列;
2)对两幅图像进行ORB特征检测,并统计第一幅图像每个栅格内的特征点个数f(Apq)和第二幅图像每个栅格内的特征点个数f(Bpq);
3)将第一幅图像中各栅格的特征点数进行降序排列,分别选出特征点数较多的前N个栅格,第一幅图像选出的栅格加入栅格集合A,第二幅图像选出的栅格加入栅格集合B,栅格集合A中的每个栅格记为Ai,栅格集合B中的每个栅格记为Bi,并计算出各栅格内的中心点像素坐标
Figure BDA0001982047130000021
和/>
Figure BDA0001982047130000022
4)对惯性测量单元的输出值进行解算得到惯性测量单元的姿态信息,利用惯性测量单元的姿态信息对步骤(3)中各栅格内的中心点对进行匹配,计算栅格Ai与集合B中所匹配栅格Bi′的中心点坐标之间的距离di
5)采用基于汉明距离的方法对两幅图像上的特征点进行粗匹配,并按照汉明距离进行排序,选取汉明距离不大于最小距离一定倍数的特征点对作为正确匹配点对,并将介于特定距离区间的特征点对作为待定匹配点对;
6)利用g2o非线性优化库建立超图,求解本质矩阵E,使得重投影误差最小;
7)利用本质矩阵E恢复出图像的姿态信息,设置自适应阈值函数,使用对极约束条件将待定匹配点对进行筛选,若满足相应阈值条件则将该待定匹配点对加入正确匹配点对。
进一步的,本发明方法中,步骤(3)中所述两幅图像中各栅格内中心点像素坐标
Figure BDA0001982047130000023
和/>
Figure BDA0001982047130000024
的计算公式分别为:
Figure BDA0001982047130000025
其中,在第一幅图像中,mi为栅格Ai的特征点数,(xik,yik,1)为栅格Ai中第k个特征点的像素坐标;在第二幅图像中,ni为栅格Bi的特征点数,(uik,vik,1)为栅格Bi中第k个特征点的像素坐标。
进一步的,本发明方法中,所述步骤(4)中加入了惯性姿态约束,利用惯性测量单元的姿态信息对步骤(3)中选出的N个栅格内每个栅格的中心点对进行匹配,并计算栅格Ai与集合B中所匹配栅格Bi′的中心点坐标之间的距离di,计算公式为:
Figure BDA0001982047130000026
其中,
Figure BDA0001982047130000027
为栅格Ai的中心点像素坐标,/>
Figure BDA0001982047130000028
为集合B中与栅格Ai相匹配的栅格Bi′的中心点像素坐标,Rimu为惯性测量单元的姿态矩阵,K为相机内参矩阵,di的极小值记为dmin
进一步的,本发明方法中,步骤(5)所述中按照汉明距离进行排序后,选取汉明距离不大于最小距离一定倍数的特征点对作为正确匹配点对,所述最小距离一定倍数选取最小距离的2-5倍,并将介于一定距离的特征点对作为待定匹配点对,所述介于一定距离的特征点选取介于最小距离的2-5倍与最大距离的0.5-0.7倍之间的特征点。
进一步的,本发明方法中,所述步骤(6)中使用g2o优化方法求解本质矩阵E以最小化重投影误差,重投影误差函数为:
Figure BDA0001982047130000031
其中,pα1和pα2分别表示第α个正确匹配点对在第一幅图像和第二幅图像的像素坐标,K为相机内参矩阵。
进一步的,本发明方法中,所述步骤(7)中的对极约束条件为:
Figure BDA0001982047130000032
自适应阈值函数为:ti=d0d′i′,
其中,pβ1和pβ2分别表示第β个待定匹配点对在第一幅图像和第二幅图像的像素坐标;d0为初始化阈值,d′i为阈值系数,当pβ1属于栅格Ai时,d′i为di/dmin,当pβ1不属于栅格集合A时,d′i为1。
有益效果:
本发明提供的基于惯性姿态约束的ORB特征匹配方法,相对于现有技术具有如下优势:1.引入惯性测量单元输出的姿态信息,增强了特征匹配的可靠性;2.采用自适应阈值函数,可减少误匹配点数。
附图说明
图1为本发明的基于惯性姿态约束的ORB特征匹配方法的流程框图;
图2为第一幅图像的特征点分布图;
图3为未筛选误匹配点对的特征匹配结果图。
图4为剔除误匹配点对后的特征匹配结果图。
具体实施方式
如图1所示,本发明的基于惯性姿态约束的ORB特征匹配方法,具体步骤如下:
1)将待匹配的两幅图像栅格化,栅格边长为a,本实施例中a取40,并将每个栅格进行编号:第一幅图像的栅格编号为Apq,表示该栅格位于第一幅图像栅格阵列的第p行和第q列;第二幅图像的栅格编号为Bpq,表示该栅格位于第二幅图像栅格阵列的第p行和第q列;
2)对两幅图像进行ORB特征检测,并统计第一幅图像每个栅格内的特征点个数f(Apq)和第二幅图像每个栅格内的特征点个数f(Bpq);
3)将两幅图像中各栅格的特征点数进行降序排列,分别选出特征点数较多的前N个栅格,本实施例中N取3,第一幅图像选出的栅格加入栅格集合A,第二幅图像选出的栅格加入栅格集合B,栅格集合A中的每个栅格记为Ai,栅格集合B中的每个栅格记为Bi,并计算出各栅格内的中心点像素坐标
Figure BDA0001982047130000041
和/>
Figure BDA0001982047130000042
计算公式分别为:
Figure BDA0001982047130000043
其中,在第一幅图像中,mi为栅格Ai的特征点数,(xik,yik,1)为栅格Ai中第k个特征点的像素坐标;在第二幅图像中,ni为栅格Bi的特征点数,(uik,vik,1)为栅格Bi中第k个特征点的像素坐标。
4)对惯性测量单元的输出值进行解算得到惯性测量单元的姿态信息,利用惯性测量单元的姿态信息对步骤3)中3个中心点对进行匹配,并计算栅格Ai与集合B中所匹配栅格Bi′的中心点坐标之间的距离di,计算公式为:
Figure BDA0001982047130000044
其中,
Figure BDA0001982047130000045
为栅格Ai的中心点像素坐标,/>
Figure BDA0001982047130000046
为集合B中与栅格Ai相匹配的栅格Bi′的中心点像素坐标,Rimu为惯性测量单元的姿态矩阵,K为相机内参矩阵,di的极小值记为dmin
5)采用基于汉明距离的方法对两幅图像上的特征点进行粗匹配,并按照汉明距离进行排序,选取汉明距离不大于两倍最小距离的特征点对作为正确匹配点对,并将汉明距离介于两倍最小距离与最大距离0.5倍的特征点对作为待定匹配点对;当两倍最小距离不大于30时,选取汉明距离不大于30的特征点对作为正确匹配点对。
6)利用g2o非线性优化库建立超图,求解本质矩阵E,使得重投影误差最小,重投影误差函数为:
Figure BDA0001982047130000047
其中,pα1和pα2分别表示第α个正确匹配点对在第一幅图像和第二幅图像的像素坐标,K为相机内参矩阵;
7)利用本质矩阵E恢复出图像的姿态信息,设置自适应阈值函数,使用对极约束条件将待定匹配点对进行筛选,若满足相应阈值条件则将该待定匹配点对加入正确匹配点对;
对极约束条件为:
Figure BDA0001982047130000048
自适应阈值函数为:ti=d0d′i
其中,pβ1和pβ2分别表示第β个待定匹配点对在第一幅图像和第二幅图像的像素坐标;初始化阈值为d0,本实施例中d0取为0.003,d′i为阈值系数,当pβ1属于栅格Aj时,d′i为di/dmin,当pβ1不属于栅格集合A时,d′i为1。
具体实例:
为了验证本发明算法的有效性,选取数据集EuRoC中V2_01_easy的两幅图像作为待匹配图像,该图像的分辨率为752×480,图2为第一幅图像的特征点分布图,图3为未筛选误匹配点对的特征匹配结果图,共检测了500组特征点对,其中汉明距离最小值为1,最大值为88,可以看出图中包含大量的交叉匹配线,误匹配点较多;图4为剔除误匹配点对后的特征匹配结果图,首先根据特征点对的汉明距离找到67组特征点对作为正确匹配点对,354组特征点对作为待定匹配点对,最终通过对极约束筛选出398组正确匹配点对,剔除掉102组误匹配点对。
上述实施例仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和等同替换,这些对本发明权利要求进行改进和等同替换后的技术方案,均落入本发明的保护范围。

Claims (5)

1.一种基于惯性姿态约束的特征匹配方法,其特征在于,该方法包括如下步骤:
(1)将待匹配的两幅图像栅格化,栅格边长为a,并将每个栅格进行编号:第一幅图像的栅格编号记为Apq,表示该栅格位于第一幅图像栅格阵列的第p行和第q列;第二幅图像的栅格编号记为Bpq,表示该栅格位于第二幅图像栅格阵列的第p行和第q列;
(2)对两幅图像进行ORB特征检测,并统计第一幅图像每个栅格内的特征点个数f(Apq)和第二幅图像每个栅格内的特征点个数f(Bpq);
(3)将第一幅图像中各栅格的特征点数进行降序排列,分别选出特征点数较多的前N个栅格,第一幅图像选出的栅格加入栅格集合A,第二幅图像选出的栅格加入栅格集合B,栅格集合A中的每个栅格记为Ai,栅格集合B中的每个栅格记为Bi,并计算出各栅格内的中心点像素坐标pAi(xi,yi,1)和pBi(ui,vi,1);
(4)对惯性测量单元的输出值进行解算得到惯性测量单元的姿态信息,利用惯性测量单元的姿态信息对步骤(3)中各栅格内的中心点对进行匹配,计算栅格Ai与集合B中所匹配栅格Bi′的中心点坐标之间的距离di
(5)采用基于汉明距离的方法对两幅图像上的特征点进行粗匹配,并按照汉明距离进行排序,选取汉明距离不大于最小距离一定倍数的特征点对作为正确匹配点对,并将介于特定距离区间的特征点对作为待定匹配点对;所述最小距离一定倍数选取最小距离的2-5倍,并将介于一定距离的特征点对作为待定匹配点对,所述介于一定距离的特征点选取介于最小距离的2-5倍与最大距离的0.5-0.7倍之间的特征点;
(6)利用g2o非线性优化库建立超图,求解本质矩阵E,使得重投影误差最小;
(7)利用本质矩阵E恢复出图像的姿态信息,设置自适应阈值函数,使用对极约束条件将待定匹配点对进行筛选,若满足相应阈值条件则将该待定匹配点对加入正确匹配点对。
2.根据权利要求1所述的基于惯性姿态约束的特征匹配方法,其特征在于,步骤(3)中所述两幅图像中各栅格内中心点像素坐标pAi(xi,yi,1)和pBi(ui,vi,1)的计算公式分别为:
Figure QLYQS_1
其中,在第一幅图像中,mi为栅格Ai的特征点数,(xik,yik,1)为栅格Ai中第k个特征点的像素坐标;在第二幅图像中,ni为栅格Bi的特征点数,(uik,vik,1)为栅格Bi中第k个特征点的像素坐标。
3.根据权利要求1所述的基于惯性姿态约束的特征匹配方法,其特征在于,步骤(4)中加入了惯性姿态约束,利用惯性测量单元的姿态信息对步骤(3)中选出的N个栅格内每个栅格的中心点对进行匹配,并计算栅格Ai与集合B中所匹配栅格B′i的中心点坐标之间的距离di,计算公式为:
Figure QLYQS_2
其中,
Figure QLYQS_3
为栅格Ai的中心点像素坐标,/>
Figure QLYQS_4
为集合B中与栅格Ai相匹配的栅格B′i的中心点像素坐标,Rimu为惯性测量单元的姿态矩阵,K为相机内参矩阵,di的极小值记为dmin
4.根据权利要求1所述的基于惯性姿态约束的特征匹配方法,其特征在于,步骤(6)中使用g2o优化方法求解本质矩阵E以最小化重投影误差,重投影误差函数为:
Figure QLYQS_5
其中,pα1和pα2分别表示第α个正确匹配点对在第一幅图像和第二幅图像的像素坐标,K为相机内参矩阵。
5.根据权利要求1所述的基于惯性姿态约束的特征匹配方法,其特征在于,步骤(7)中的对极约束条件为:
Figure QLYQS_6
自适应阈值函数为:ti=d0d′i
其中,pβ1和pβ2分别表示第β个待定匹配点对在第一幅图像和第二幅图像的像素坐标;d0为初始化阈值,d′i为阈值系数,当pβ1属于栅格Ai时,d′i为di/dmin,当pβ1不属于栅格集合A时,d′i为1。
CN201910149805.5A 2019-02-28 2019-02-28 一种基于惯性姿态约束的特征匹配方法 Active CN109903343B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910149805.5A CN109903343B (zh) 2019-02-28 2019-02-28 一种基于惯性姿态约束的特征匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910149805.5A CN109903343B (zh) 2019-02-28 2019-02-28 一种基于惯性姿态约束的特征匹配方法

Publications (2)

Publication Number Publication Date
CN109903343A CN109903343A (zh) 2019-06-18
CN109903343B true CN109903343B (zh) 2023-05-23

Family

ID=66945859

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910149805.5A Active CN109903343B (zh) 2019-02-28 2019-02-28 一种基于惯性姿态约束的特征匹配方法

Country Status (1)

Country Link
CN (1) CN109903343B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111967485B (zh) * 2020-04-26 2024-01-05 中国人民解放军火箭军工程大学 一种基于概率超图学习的空地红外目标跟踪方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100296736A1 (en) * 2009-05-25 2010-11-25 Canon Kabushiki Kaisha Image search apparatus and method thereof
CN108615248A (zh) * 2018-04-27 2018-10-02 腾讯科技(深圳)有限公司 相机姿态追踪过程的重定位方法、装置、设备及存储介质
US20180284802A1 (en) * 2016-08-29 2018-10-04 PerceptIn, Inc. Fault Tolerance to Provide Robust Tracking for Autonomous Positional Awareness
CN109086795A (zh) * 2018-06-27 2018-12-25 上海理工大学 一种图像误匹配精确剔除方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100296736A1 (en) * 2009-05-25 2010-11-25 Canon Kabushiki Kaisha Image search apparatus and method thereof
US20180284802A1 (en) * 2016-08-29 2018-10-04 PerceptIn, Inc. Fault Tolerance to Provide Robust Tracking for Autonomous Positional Awareness
CN108615248A (zh) * 2018-04-27 2018-10-02 腾讯科技(深圳)有限公司 相机姿态追踪过程的重定位方法、装置、设备及存储介质
CN109086795A (zh) * 2018-06-27 2018-12-25 上海理工大学 一种图像误匹配精确剔除方法

Also Published As

Publication number Publication date
CN109903343A (zh) 2019-06-18

Similar Documents

Publication Publication Date Title
CN108665496B (zh) 一种基于深度学习的端到端的语义即时定位与建图方法
CN110108258B (zh) 一种单目视觉里程计定位方法
CN110555901A (zh) 动静态场景的定位和建图方法、装置、设备和存储介质
CN114879695B (zh) 轨迹匹配方法、装置、设备和介质
CN108776989B (zh) 基于稀疏slam框架的低纹理平面场景重建方法
CN112381890B (zh) 一种基于点线特征的rgb-d视觉slam方法
Pascoe et al. Robust direct visual localisation using normalised information distance.
CN112233179B (zh) 一种视觉里程计测量方法
CN109145860A (zh) 车道线跟踪方法和装置
CN109974743A (zh) 一种基于gms特征匹配及滑动窗口位姿图优化的rgb-d视觉里程计
Kraft et al. Toward evaluation of visual navigation algorithms on RGB-D data from the first-and second-generation Kinect
CN110544268B (zh) 一种基于结构光及SiamMask网络的多目标跟踪方法
CN112652020B (zh) 一种基于AdaLAM算法的视觉SLAM方法
CN109740609A (zh) 一种轨距检测方法及装置
Fernando et al. Identification of moving obstacles with pyramidal Lucas Kanade optical flow and k means clustering
CN112308921A (zh) 一种基于语义和几何的联合优化动态slam方法
CN114140527A (zh) 一种基于语义分割的动态环境双目视觉slam方法
CN110310305A (zh) 一种基于bssd检测与卡尔曼滤波的目标跟踪方法与装置
CN114119732A (zh) 基于目标检测和K-means聚类的联合优化动态SLAM方法
CN109903343B (zh) 一种基于惯性姿态约束的特征匹配方法
CN113888603A (zh) 基于光流跟踪和特征匹配的回环检测及视觉slam方法
CN116895059A (zh) 一种多目透视图像的bev空间目标检测方法及装置
CN110570473A (zh) 一种基于点线融合的权重自适应位姿估计方法
CN116052120A (zh) 基于图像增强和多传感器融合的挖掘机夜间物体检测方法
EP4174770B1 (en) Monocular-vision-based detection of moving objects

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant