CN111898428A - 一种基于orb的无人机特征点匹配方法 - Google Patents
一种基于orb的无人机特征点匹配方法 Download PDFInfo
- Publication number
- CN111898428A CN111898428A CN202010578079.1A CN202010578079A CN111898428A CN 111898428 A CN111898428 A CN 111898428A CN 202010578079 A CN202010578079 A CN 202010578079A CN 111898428 A CN111898428 A CN 111898428A
- Authority
- CN
- China
- Prior art keywords
- matching
- orb
- algorithm
- descriptor
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 76
- 238000000605 extraction Methods 0.000 claims abstract description 33
- 238000011156 evaluation Methods 0.000 claims abstract description 15
- 101100126955 Arabidopsis thaliana KCS2 gene Proteins 0.000 claims abstract description 14
- 241000132023 Bellis perennis Species 0.000 claims abstract description 14
- 235000005633 Chrysanthemum balsamita Nutrition 0.000 claims abstract description 14
- 238000012216 screening Methods 0.000 claims abstract description 5
- 230000008569 process Effects 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 4
- 230000000694 effects Effects 0.000 claims description 3
- 230000009466 transformation Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 9
- 238000000844 transformation Methods 0.000 description 8
- 230000000007 visual effect Effects 0.000 description 8
- 238000012360 testing method Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003032 molecular docking Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于ORB的无人机特征点匹配方法,包括以下步骤:(1)读取参考图像与待配准图像,对每一幅图片构建尺度金字塔;(2)使用利用ORB特征点提取算法进行粗提取,并对粗提取的特征点进行筛选;(3)确定特征点的主方向,分别使用ORB描述子、SURF描述子、DAISY描述子这三种描述子进行后续的特征描述与匹配,利用RANSAC算法剔除误匹配点对,并分别求出三种描述子执行结果的评价指标;(4)使用评价指标对三种描述子进行选择;(5)将选出的描述子搭配合适的匹配算法,将RANSAC算法剔除误匹配点对后的结果作为特征提取与匹配的最终结果输出。本发明的方法具有可靠性、鲁棒性与高精度。
Description
技术领域
本发明涉及图像处理技术、视觉导航技术领域,尤其是一种基于经典算法模块化组合的特征提取与匹配方法。
背景技术
无人机自主空中加油能力大大增加了无人机的作业半径,同时也减少了无人机的作业准备和响应时间。在无人机自主空中加油的对接阶段,全球定位系统(GlobalPositioning System,GPS)等常规导航手段很难获得精确的相对位置信息。以图像特征提取与匹配算法作为核心的视觉导航手段是无人机近距离导航中的研究热点。
无人机图像特征提取与匹配主要是指通过对视觉传感器捕捉的加油机图标提取图像特征,根据特征对两幅图像进行匹配并得到两幅图像之间的关系。目前已存在许多鲁棒性较强的图像特征提取与匹配算法。但这些现有算法只能适用于几种特殊图像变换或者是专门针对某些特定应用场景进行改进的算法。例如,尺度不变特征变换(Scale-Invariant Feature Transform,SIFT),在具有良好尺度不变性的同时,难以满足实时性的要求;以SIFT算法为基础改进的加速鲁棒性特征(Speed-Up Robust Feature,SURF),实时性依然不足。基于FAST角点检测算法(Features from Accelerated Segment Test)和BRIEF描述子(Binary Robust Independent Elementary Features)改进而成的ORB(Oriented FAST and Rotated BRIEF)特征算法具有良好的旋转不变性,但是有大量实验可以证明,其在尺度不变性方面有所欠缺。
在无人机飞行的视觉环境具有不稳定性,极易受到无人机位置改变、光照气候等因素影响,这些影响将在在图像中以不同的方式呈现出来,对算法的性能提出了较高的要求。为了弥补上述问题,将现有的经典算法按流程进行模块化,对不同的特征点提取算法、描述子和特征点匹配方法进行取长补短,交叉组合,而后融合成一套具有高适应性、高稳定性的图像特征提取与匹配算法,是无人机视觉导航中的重要研究方向。
发明内容
发明目的:针对上述现有的图像特征提取与匹配算法局限于几种特殊图像变换、某种特定应用场景中而导致无法适应无人机对接中的复杂视觉环境的问题,发明一种基于ORB的无人机特征点匹配方法,能够跟随图像变换与图像环境条件自适应调节算法,使特征提取与匹配算法在无人机飞行环境中仍具有可靠性、鲁棒性与高精度。
技术方案:本发明的一种基于ORB的无人机特征点匹配方法,包括以下步骤:
(1)读取参考图像与待配准图像,对每一幅图片构建尺度金字塔;
(2)使用利用ORB特征点提取算法进行粗提取,并对粗提取的特征点进行筛选;
(3)确定特征点的主方向,分别使用ORB描述子、SURF描述子、DAISY描述子这三种描述子进行后续的特征描述与匹配,利用RANSAC算法剔除误匹配点对,并分别求出三种描述子执行结果的评价指标:匹配准确率,匹配时间与RMSE值;
(4)使用评价指标:匹配准确率,匹配时间与RMSE值对三种描述子进行选择;
(5)将选出的描述子搭配合适的匹配算法,将RANSAC算法剔除误匹配点对后的结果作为特征提取与匹配的最终结果输出。
进一步地,步骤(1)中所述对每一幅图片构建尺度金字塔的过程中建立8层按比例缩放的图像。
进一步地,步骤(3)中所述的使用ORB描述子进行后续的特征描述与匹配的过程中,使用矩法来确定特征点主方向,矩定义如下:
mwq=∑x,yxwyqI(x,y)
上式中,I(x,y)是灰度值,w与q的和为灰度矩的阶数,局部区域零阶灰度矩m00=∑x,yI(x,y)表示该局部区域总的灰度值,局部区域一阶灰度矩m10=∑x,yxI(x,y)和m01=∑x,yyI(x,y)确定了质心C:
质心与特征点指尖的夹角公式为:
θ=atan2(m01,m10)
通过矩来计算特征点周边以r为半径范围内的质心,特征点坐标到质心形成一个向量作为该特征点的方向;
进一步地,ORB描述子的描述向量由0和1组成,对关键点(x,y)为中心划定一个点集区域,用旋转后的点集来计算特征描述符:
进一步地,步骤(3)中所述的使用SURF描述子进行后续的特征描述与匹配的过程中,通过统计特征点邻域内的haar小波特征来为步骤(2)中粗提取的特征点增加方向,令关键点(u,v)为坐标系中心,在特征点一定半径圆域内,设置一张角为60°的扇形以5°为步长进行旋转,依次遍历整个邻域,在每一位置求所有像素点水平方向和垂直方向的haar小波响应总和生成矢量,将最大值那个扇形的方向作为该特征点的主方向。
进一步地,步骤(3)中所述的使用DAISY描述子进行后续的特征描述与匹配的过程中,运用第二层梯度直方图来判断特征点主方向。
进一步地,步骤(3)中所述的执行结果的评价指标:匹配准确率,匹配时间与RMSE值的计算方法为:
匹配准确率E的计算方法为:
匹配时间T即为从ORB特征点提取算法开始到描述子描述结束时的算法时间;
RMSE值则是,先求出两个图像间的单应性矩阵H,然后通过特征点提取算法提取出参考图像与待配准图像中的坐标信息,求得参考图像单应性矩阵后的坐标与待配准图像坐标的RMSE值。
进一步地,步骤(4)中所述的使用评价指标:匹配准确率,匹配时间与RMSE值对三种描述子进行选择的原则是:
将匹配结果的准确率E作为最关心对象,先对三种不同方法求得的准确率E进行比较,如果最高和次高的准确率E值相差超过0.1,那么则认为这两个准确率E的数值差距悬殊,选择E值较高的算法;
如果最高和次高E值相差小于0.1,那么认为这两种算法在准确率效果上性能相似,则对匹配时间T与RMSE数值R之和进行比较,定义数值O,O为匹配时间T与RMSE数值R之和,即:
O=T+R
O值越小,则可认为算法执行速度快且精度高,算法整体性能越好,取O值较小的算法作为输出匹配结果的最终算法。
进一步地,步骤(5)中所述的将选出的描述子搭配合适的匹配算法的具体方法是:如果步骤(4)中选取的描述子是ORB,则采用汉明距离利用暴力匹配法进行匹配;如果步骤(4)中选取的描述子是SURF或DAISY,则采用欧氏距离利用暴力匹配法进行匹配,保留小于4倍最小距离的点,而后使用RANSAC算法剔除误匹配点对,输出最终结果。
本发明的有益效果为:本发明采用的基于局部模块化的特征提取与匹配算法思想,将三种经典算法与描述子进行交叉组合,将三种评价指标结合在一起对匹配结果进行评价,能够根据不同的图像变换与应用场景,自适应地选择精度较高的算法,使特征提取与匹配算法在复杂的飞行环境中仍具有可靠性、鲁棒性与高精度。
附图说明
图1为一种基于ORB的无人机特征点匹配方法流程示意图
图2为局部特征算法流程图
图3为ORB关键点提取示意图
图4为SURF方法主方向确定示意图
图5为DAISY描述子结构示意图
图6为测试图像样例示意图,图6(a)为尺度变换图像,图6(b)为旋转变换图像,图6(c)为视角变换图像
图7为本文方法对示例的最终匹配结果示意图,图7(a)为尺度变换的最终匹配结果示意图,图7(b)为旋转变换的最终匹配结果示意图,图7(c)为视角变换的最终匹配结果示意图
具体实施方式
如图1所示,一种基于ORB的无人机特征点匹配方法,包括如下步骤:
(1)读取参考图像与待配准图像,对每一幅图片构建尺度金字塔;
(2)使用利用ORB特征点提取算法进行粗提取,并对粗提取的特征点进行筛选;
(3)确定特征点的主方向,分别使用ORB描述子、SURF描述子、DAISY描述子这三种描述子进行后续的特征描述与匹配,利用RANSAC算法剔除误匹配点对,并分别求出三种描述子执行结果的评价指标:匹配准确率,匹配时间与RMSE值;
(4)使用评价指标:匹配准确率,匹配时间与RMSE值对三种描述子进行选择;
(5)将选出的描述子搭配合适的匹配算法,将RANSAC算法剔除误匹配点对后的结果作为特征提取与匹配的最终结果输出。
进一步地,步骤(1)中所述对每一幅图片构建尺度金字塔的过程中建立8层按比例缩放的图像。
进一步地,步骤(2)中,ORB关键点提取如图3所示,对于选定的像素点f,假设其像素灰度值为If,参考OpenCV视觉库ORB特征检测算法的参数值设定阈值,选取以f为中心,画一个半径为3像素的圆,圆周上如果有连续12个像素点的灰度值大于或小于灰度阈值范围,那么就可以认为f为特征点。筛选粗提取特征点时,为了加快特征点的提取,快速排除非特征点,首先检测1、9、5、13位置上的灰度值,如果f是特征点,那么这四个位置上有3个或3个以上的的像素值都大于或者小于f点的灰度值。如果不满足,则直接排除此点。
进一步地,步骤(3)中所述的使用ORB描述子进行后续的特征描述与匹配的过程中,使用矩法来确定特征点主方向,矩定义如下:
mwq=∑x,yxwyqI(x,y)
上式中,I(x,y)是灰度值,w与q的和为灰度矩的阶数,局部区域零阶灰度矩m00=∑x,yI(x,y)表示该局部区域总的灰度值,局部区域一阶灰度矩m10=∑x,yxI(x,y)和m01=∑x,yyI(x,y)确定了质心C:
质心与特征点指尖的夹角公式为:
θ=atan2(m01,m10)
通过矩来计算特征点周边以r为半径范围内的质心,特征点坐标到质心形成一个向量作为该特征点的方向。
进一步地,ORB描述子的描述向量由0和1组成,对关键点(x,y)为中心划定一个点集区域,名为p,传统的BRIEF算法中需要对p定义一个二进制测试。
其中p(x)代表着点x处的灰度值。由此可以得到一个256位的二进制串
fn(p)=∑1≤i≤n2i-1τ(p;xi,yi)
在传统的BRIEF算法对图像的旋转变换十分的不稳定,当旋转角度增大时,BRIEF算法匹配的结果极差。为了让BRIEF描述符对旋转变换具有稳健性,ORB算法中的描述子进行了改进。新型BRIEF描述符的引导公式如下式所示:
进一步地,如图4所示。步骤(3)中所述的使用SURF描述子进行后续的特征描述与匹配的过程中,通过统计特征点邻域内的haar小波特征来为步骤(2)中粗提取的特征点增加方向,令关键点(u,v)为坐标系中心,在特征点一定半径圆域内,设置一张角为60°的扇形以5°为步长进行旋转,依次遍历整个邻域,在每一位置求所有像素点水平方向和垂直方向的haar小波响应总和生成矢量,将最大值那个扇形的方向作为该特征点的主方向。
进一步地,步骤(3)中所述的使用DAISY描述子进行后续的特征描述与匹配的过程中,运用第二层梯度直方图来判断特征点主方向。如图5所示为DAISY描述子结构示意图。
进一步地,步骤(3)中所述的执行结果的评价指标:匹配准确率,匹配时间与RMSE值的计算方法为:
匹配准确率E的计算方法为:
匹配时间T即为从ORB特征点提取算法开始到描述子描述结束时的算法时间;
RMSE值则是,先求出两个图像间的单应性矩阵H,然后通过特征点提取算法提取出参考图像与待配准图像中的坐标信息,求得参考图像单应性矩阵后的坐标与待配准图像坐标的RMSE值。
进一步地,步骤(4)中所述的使用评价指标:匹配准确率,匹配时间与RMSE值对三种描述子进行选择的原则是:
将匹配结果的准确率E作为最关心对象,先对三种不同方法求得的准确率E进行比较,如果最高和次高的准确率E值相差超过0.1,那么则认为这两个准确率E的数值差距悬殊,选择E值较高的算法;
如果最高和次高E值相差小于0.1,那么认为这两种算法在准确率效果上性能相似,则对匹配时间T与RMSE数值R之和进行比较,定义数值O,O为匹配时间T与RMSE数值R之和,即:
O=T+R
O值越小,则可认为算法执行速度快且精度高,算法整体性能越好,取O值较小的算法作为输出匹配结果的最终算法。
进一步地,步骤(5)中所述的将选出的描述子搭配合适的匹配算法的具体方法是:如果步骤(4)中选取的描述子是ORB,则采用汉明距离利用暴力匹配法进行匹配;如果步骤(4)中选取的描述子是SURF或DAISY,则采用欧氏距离利用暴力匹配法进行匹配,保留小于4倍最小距离的点,而后使用RANSAC算法剔除误匹配点对,输出最终结果。
本发明的可行性通过如下仿真实验加以验证:
(1)仿真实验程序在Windows 7SP1及以上版本、64位操作系统下,使用C++语言,基于OpenCV 4.0软件库在VS2017环境中编写;;
(2)设置粗匹配的筛选范围为小于4倍最小距离;
(3)采用的图像样本为制作加油机锥套视觉仿真物的图像,分为三种图像变换:尺度变换,旋转变换以及视角变换,如图6所示;
图7为最终匹配得到的结果示意图。而在表格中展示了面对不同的图像变换,利用上述方法选取出的最终算法,以及耗时、准确率与RANSAC后的RMSE精度。从最终面对不同图像变换的匹配结果表现以及表1的数据分析中可以看出,本发明采用将ORB、DAISY和SURF结合在一起进行特征提取与匹配而后自主选择的方法,面对不同的图像变换,获得了较高的图像准确率和较快的图像匹配速率,使特征提取与匹配算法具有可靠性、鲁棒性与高精度。
表1图像匹配结果
变换类型 | 算法选择 | 特征点个数 | 匹配对数 | 时间t(s) | 准确率 | RMSE |
尺度变换 | ORB/SURF | 764/759 | 117 | 0.77 | 0.90 | 1.49 |
旋转变换 | ORB/ORB | 769/817 | 49 | 0.27 | 0.98 | 1.09 |
视角变换 | ORB/DAISY | 764/698 | 309 | 1.08 | 0.93 | 1.41 |
上述实施例仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和等同替换,这些对本发明权利要求进行改进和等同替换后的技术方案,均落入本发明的保护范围。
Claims (8)
1.一种基于ORB的无人机特征点匹配方法,包括以下步骤:
(1)读取参考图像与待配准图像,对每一幅图片构建尺度金字塔;
(2)使用利用ORB特征点提取算法进行粗提取,并对粗提取的特征点进行筛选;
(3)确定特征点的主方向,分别使用ORB描述子、SURF描述子、DAISY描述子这三种描述子进行后续的特征描述与匹配,利用RANSAC算法剔除误匹配点对,并分别求出三种描述子执行结果的评价指标:匹配准确率,匹配时间与RMSE值;
(4)使用评价指标:匹配准确率,匹配时间与RMSE值对三种描述子进行选择;
(5)将选出的描述子搭配合适的匹配算法,将RANSAC算法剔除误匹配点对后的结果作为特征提取与匹配的最终结果输出。
2.根据权利要求1所述的一种基于ORB的无人机特征点匹配方法,其特征在于:步骤(1)中所述对每一幅图片构建尺度金字塔的过程中建立8层按比例缩放的图像。
3.根据权利要求1所述的一种基于ORB的无人机特征点匹配方法,其特征在于:步骤(3)中所述的使用ORB描述子进行后续的特征描述与匹配的过程中,使用矩法来确定特征点主方向,矩定义如下:
mwq=∑x,yxwyqI(x,y)
上式中,I(x,y)是灰度值,w与q的和为灰度矩的阶数,局部区域零阶灰度矩m00=∑x,yI(x,y)表示该局部区域总的灰度值,局部区域一阶灰度矩m10=∑x,yxI(x,y)和m01=∑x,vyI(x,y)确定了质心C:
质心与特征点指尖的夹角公式为:
θ=atan2(m01,m10)
通过矩来计算特征点周边以r为半径范围内的质心,特征点坐标到质心形成一个向量作为该特征点的方向;
进一步地,ORB描述子的描述向量由0和1组成,对关键点(x,y)为中心划定一个点集区域,用旋转后的点集来计算特征描述符:
4.根据权利要求1所述的一种基于ORB的无人机特征点匹配方法,其特征在于:步骤(3)中所述的使用SURF描述子进行后续的特征描述与匹配的过程中,通过统计特征点邻域内的haar小波特征来为步骤(2)中粗提取的特征点增加方向,令关键点(u,v)为坐标系中心,在特征点一定半径圆域内,设置一张角为60°的扇形以5°为步长进行旋转,依次遍历整个邻域,在每一位置求所有像素点水平方向和垂直方向的haar小波响应总和生成矢量,将最大值那个扇形的方向作为该特征点的主方向。
5.根据权利要求1所述的一种基于ORB的无人机特征点匹配方法,其特征在于:步骤(3)中所述的使用DAISY描述子进行后续的特征描述与匹配的过程中,运用第二层梯度直方图来判断特征点主方向。
7.根据权利要求1所述的一种基于ORB的无人机特征点匹配方法,其特征在于:步骤(4)中所述的使用评价指标:匹配准确率,匹配时间与RMSE值对三种描述子进行选择的原则是:
将匹配结果的准确率E作为最关心对象,先对三种不同方法求得的准确率E进行比较,如果最高和次高的准确率E值相差超过0.1,那么则认为这两个准确率E的数值差距悬殊,选择E值较高的算法;
如果最高和次高E值相差小于0.1,那么认为这两种算法在准确率效果上性能相似,则对匹配时间T与RMSE数值R之和进行比较,定义数值O,O为匹配时间T与RMSE数值R之和,即:
O=T+R
O值越小,则可认为算法执行速度快且精度高,算法整体性能越好,取O值较小的算法作为输出匹配结果的最终算法。
8.根据权利要求1所述的一种基于ORB的无人机特征点匹配方法,其特征在于:步骤(5)中所述的将选出的描述子搭配合适的匹配算法的具体方法是:如果步骤(4)中选取的描述子是ORB,则采用汉明距离利用暴力匹配法进行匹配;如果步骤(4)中选取的描述子是SURF或DAISY,则采用欧氏距离利用暴力匹配法进行匹配,保留小于4倍最小距离的点,而后使用RANSAC算法剔除误匹配点对,输出最终结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010578079.1A CN111898428A (zh) | 2020-06-23 | 2020-06-23 | 一种基于orb的无人机特征点匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010578079.1A CN111898428A (zh) | 2020-06-23 | 2020-06-23 | 一种基于orb的无人机特征点匹配方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111898428A true CN111898428A (zh) | 2020-11-06 |
Family
ID=73206924
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010578079.1A Pending CN111898428A (zh) | 2020-06-23 | 2020-06-23 | 一种基于orb的无人机特征点匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111898428A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112633081A (zh) * | 2020-12-07 | 2021-04-09 | 深圳市来科计算机科技有限公司 | 一种复杂场景下的特定物体识别方法 |
CN113192113A (zh) * | 2021-04-30 | 2021-07-30 | 山东产研信息与人工智能融合研究院有限公司 | 双目视觉特征点匹配方法、系统、介质及电子设备 |
CN113570647A (zh) * | 2021-07-21 | 2021-10-29 | 中国能源建设集团安徽省电力设计院有限公司 | 一种倾斜摄影与遥感光学图像之间立体目标空间配准方法 |
CN114372510A (zh) * | 2021-12-15 | 2022-04-19 | 北京工业大学 | 一种基于图像区域分割的帧间匹配slam方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108010045A (zh) * | 2017-12-08 | 2018-05-08 | 福州大学 | 基于orb的视觉图像特征点误匹配提纯方法 |
CN110322459A (zh) * | 2018-03-29 | 2019-10-11 | 袁士林 | 图像描述子选择方法 |
-
2020
- 2020-06-23 CN CN202010578079.1A patent/CN111898428A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108010045A (zh) * | 2017-12-08 | 2018-05-08 | 福州大学 | 基于orb的视觉图像特征点误匹配提纯方法 |
CN110322459A (zh) * | 2018-03-29 | 2019-10-11 | 袁士林 | 图像描述子选择方法 |
Non-Patent Citations (1)
Title |
---|
马莹: "图像特征点提取与匹配算法研究", 中国优秀硕士学位论文全文数据库信息科技辑, no. 1, 15 January 2019 (2019-01-15), pages 1 - 64 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112633081A (zh) * | 2020-12-07 | 2021-04-09 | 深圳市来科计算机科技有限公司 | 一种复杂场景下的特定物体识别方法 |
CN113192113A (zh) * | 2021-04-30 | 2021-07-30 | 山东产研信息与人工智能融合研究院有限公司 | 双目视觉特征点匹配方法、系统、介质及电子设备 |
CN113570647A (zh) * | 2021-07-21 | 2021-10-29 | 中国能源建设集团安徽省电力设计院有限公司 | 一种倾斜摄影与遥感光学图像之间立体目标空间配准方法 |
CN114372510A (zh) * | 2021-12-15 | 2022-04-19 | 北京工业大学 | 一种基于图像区域分割的帧间匹配slam方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | Learning center probability map for detecting objects in aerial images | |
Lee et al. | Simultaneous traffic sign detection and boundary estimation using convolutional neural network | |
CN108470332B (zh) | 一种多目标跟踪方法及装置 | |
CN111898428A (zh) | 一种基于orb的无人机特征点匹配方法 | |
Jiang et al. | Multiscale locality and rank preservation for robust feature matching of remote sensing images | |
CN113674328A (zh) | 一种多目标车辆跟踪方法 | |
Chen et al. | Iterative scale-invariant feature transform for remote sensing image registration | |
CN110175615B (zh) | 模型训练方法、域自适应的视觉位置识别方法及装置 | |
CN111209920A (zh) | 一种复杂动态背景下飞机检测方法 | |
CN111199558A (zh) | 一种基于深度学习的图像匹配方法 | |
CN110942473A (zh) | 一种基于特征点网格化匹配的运动目标跟踪检测方法 | |
CN110516731B (zh) | 一种基于深度学习的视觉里程计特征点检测方法及系统 | |
CN110246165B (zh) | 提高可见光图像与sar图像配准速度的方法及系统 | |
CN114358166B (zh) | 一种基于自适应k均值聚类的多目标定位方法 | |
CN109840529B (zh) | 一种基于局部敏感置信度评估的图像匹配方法 | |
Lin et al. | Hierarchical representation via message propagation for robust model fitting | |
CN112364881A (zh) | 一种进阶采样一致性图像匹配算法 | |
Shao et al. | Faster R-CNN learning-based semantic filter for geometry estimation and its application in vSLAM systems | |
CN110766728B (zh) | 基于深度学习的组合图像特征精确匹配方法 | |
CN109919927B (zh) | 基于快速四元数极谐变换的多对象篡改检测方法 | |
CN111832463A (zh) | 一种基于深度学习的交通标志检测方法 | |
JP2015007919A (ja) | 異なる視点の画像間で高精度な幾何検証を実現するプログラム、装置及び方法 | |
Yao et al. | An accurate box localization method based on rotated-RPN with weighted edge attention for bin picking | |
CN113221914B (zh) | 一种基于杰卡德距离的图像特征点匹配和误匹配剔除方法 | |
Tang et al. | A GMS-guided approach for 2D feature correspondence selection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |