CN109146861A - 一种改进的orb特征匹配方法 - Google Patents
一种改进的orb特征匹配方法 Download PDFInfo
- Publication number
- CN109146861A CN109146861A CN201810880470.XA CN201810880470A CN109146861A CN 109146861 A CN109146861 A CN 109146861A CN 201810880470 A CN201810880470 A CN 201810880470A CN 109146861 A CN109146861 A CN 109146861A
- Authority
- CN
- China
- Prior art keywords
- point
- feature
- descriptor
- follows
- characteristic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000001514 detection method Methods 0.000 claims abstract description 10
- 238000000605 extraction Methods 0.000 claims abstract description 9
- 210000001525 retina Anatomy 0.000 claims abstract description 5
- 238000005457 optimization Methods 0.000 claims abstract description 4
- 239000013598 vector Substances 0.000 claims description 16
- 239000011159 matrix material Substances 0.000 claims description 13
- 238000005070 sampling Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 6
- RSWGJHLUYNHPMX-UHFFFAOYSA-N Abietic-Saeure Natural products C12CCC(C(C)C)=CC2=CCC2C1(C)CCCC2(C)C(O)=O RSWGJHLUYNHPMX-UHFFFAOYSA-N 0.000 claims description 3
- KHPCPRHQVVSZAH-HUOMCSJISA-N Rosin Natural products O(C/C=C/c1ccccc1)[C@H]1[C@H](O)[C@@H](O)[C@@H](O)[C@@H](CO)O1 KHPCPRHQVVSZAH-HUOMCSJISA-N 0.000 claims description 3
- 229910002056 binary alloy Inorganic materials 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 3
- 239000000203 mixture Substances 0.000 claims description 3
- KHPCPRHQVVSZAH-UHFFFAOYSA-N trans-cinnamyl beta-D-glucopyranoside Natural products OC1C(O)C(O)C(CO)OC1OCC=CC1=CC=CC=C1 KHPCPRHQVVSZAH-UHFFFAOYSA-N 0.000 claims description 3
- 230000003252 repetitive effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000002187 spin decoupling employing ultra-broadband-inversion sequences generated via simulated annealing Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20164—Salient point detection; Corner detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种改进的ORB特征匹配方法,包括以下步骤:步骤S1:采用改进的FAST14‑24方法进行角点的初步提取,得到角点;步骤S2:根据得到的角点,采用Shi‑Tomasi角点检测算法进行特征点优选,得到特征点;步骤S3:利用灰度质心法对特征点集进行处理确定特征点的方向;步骤S4:根据特征点集,采用类视网膜描述符提取算法,得到特征描述符;步骤S5:根据得到的特征描述符,采用学习的方法来提取低相关性的采样点对的位置,得到优化的特征描述符。步骤S6:使用汉明距离进行特征匹配。本发明得到的优化的特征描述符相比现有的rBRIEF描述符,具有更好的鲁棒性和更高的精度。
Description
技术领域
本发明涉及图像处理技术领域,具体涉及一种改进的ORB特征匹配方法。
背景技术
图像匹配技术通过对影像内容、特征、结构、关系、纹理及灰度等的对应关系,分析相似性和一致性,寻求相似影像目标。图像匹配技术广泛应用在车牌识别、遥感影像、图像拼接、医疗图像诊断、人脸识别等领域。在图像配准算法中,特征提取及匹配的方法有很多,如:SUSAN算子、Harris算子、SIFT算子。其中SIFT算法是性能最为鲁棒的局部特征算法,但是其运算量较大,不能很好的满足实时性的要求。为此Ethan Rublee等于2011年提出ORB算法,ORB算法是建立在改进的FAST特征和改进的BRIEF特征之上,由于FAST特征和BRIEF特征都具有运算速度快的优点,因此ORB在运算速度上比SIFT快两个数量级。但是在匹配精度上,ORB算法弱于SIFT算法。
发明内容
有鉴于此,本发明的目的在于提供一种改进的ORB特征匹配方法,提高ORB的匹配精度。
为实现上述目的,本发明采用如下技术方案:
一种改进的ORB特征匹配方法,包括以下步骤:
步骤S1:采用改进的FAST14-24方法进行角点的初步提取,得到角点;
步骤S2:根据得到的角点,采用Shi-Tomasi角点检测算法进行特征点优选,得到特征点;
步骤S3:利用灰度质心法对特征点集进行处理确定特征点的方向;
步骤S4:根据特征点集,采用类视网膜描述符提取算法,得到特征描述符;
步骤S5:根据得到的特征描述符,采用学习的方法来提取低相关性的采样点对的位置,得到优化的特征描述符;
步骤S6:根据得到的优化的特征描述符,使用汉明距离进行特征匹配。
进一步的,所述步骤S1具体为:取像素点p周围24个像素点为检测模板,p点的灰度值为Ip,设定阈值T,如果24个像素点中有连续14个像素点的灰度值大于Ip+T或小于Ip-T,则p点为角点。
进一步的,所述步骤S2具体为:
步骤S21:通过计算局部小窗口W(x,y)在各个方向移动后的灰度情况检测特征点;
步骤S22:将窗口平移[u,v]产生灰度变化E[u,v]为:
其中M是2×2的自相关矩阵,由图像的导数计算:
对矩阵M的两个特征值λmax和λmin进行分析,因为曲率较大的不确定度取决于λmin,定义角点响应函数为λmin;
步骤S23:用Shi-Tomasi算法计算每点的角点响应函数λmin,根据λmin取前N个响应值最大的点确定为特征点。筛选出的特征点的周围至少存在两个不同方向的强边界,这样的特征点易于识别且稳定。
进一步的,所述步骤S3具体为:
Rosin定义了图像块的矩:
I(x,y)为图像灰度表达式,该矩的质心为:
设特征点的坐标为O,则OC为该特征点方向,方向角的计算公式如下:
θ=atan2(m01,m10)
进一步的,所述步骤S4具体为:
步骤S41:采用与视网膜感受域相似的结构,除中间特征点,还划分7层同心圆,每层同心圆上均匀分布6个采样点;
步骤S42:对于各同心圆上的采样点采用不同边长的方形邻域描述,从中间特征点向外,每层的采样边长依次为:1、3、5、7、9、11、13、15;
步骤S43:采样点的邻域灰度均值比较结果级联组成,令F为某特征点描述符,则:
其中,τ(Pab)为二进制测试,N为特征向量维数,Pa为采样点对中a点的位置,Pb为采样点对中b点的位置,I(Pa)和I(Pb)为采样点在采样邻域的灰度均值。
进一步的,所述步骤S5具体为:采用模式选取了43个采样点,可以形成个采样点对。因为采用混叠式的感受野,采样点对之间具有较高的相关性,需要选择其中相关性较低的采样点对,提升描述符的区分性。因此采用学习的方法来提取低相关性的采样点对,使用PascalVOC 2007数据库中的部分图像集,从660张图像中提取超过230K个特征点;
步骤S51:利用步骤S1和步骤S2,从660张图像中提取超过230K个特征点并建立矩阵H,每个描述符由43个采样点两两比较组成903维二进制向量,矩阵H的每一行代表一个描述符;
步骤S52:对矩阵H的每一列计算方差,把方差最大的一列取出来,然后计算其他列与该列的协方差,并选择协方差最小的一列加入到新组成的描述向量中;
步骤S53:设置维数上限Nmax=512,反复执行步骤S52直至取出512列,得到512个低相关性的采样点对的位置;
步骤S54:根据得到512个低相关性的采样点对的位置,通过生成512维二进制向量即为优选的特征描述符。
进一步的,所述步骤S6具体为:汉明距离是指两个等长的二进制字符串中,将其中一个变为另一个所需要作的最小替换次数。假设改进的ORB描述符的两个特征向量F1、F2,令F1=m1,m2,…,m512,F2=n1,n2,…,n512,则F1、F2的汉明距离为:
通过确定汉明距离的阈值,判断特征向量是否匹配。
本发明与现有技术相比具有以下有益效果:
1、本发明相比现有算法具有更高的匹配正确率。
2、本发明得到的优化的特征描述符具有更好的鲁棒性和更高的精度。
附图说明
图1是本发明方法流程图;
图2是本发明角点检测示意图;
图3是本发明类视网膜采样模式结构图;
图4是本发明实施例1特征点重复率比较结果图;
图5是本发明实施例2的特征点匹配性能比较结果图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
请参照图1,本发明提供一种改进的ORB特征匹配方法,包括以下步骤:
步骤S1:采用改进的FAST14-24方法进行角点的初步提取,得到角点;
步骤S2:根据得到的角点,采用Shi-Tomasi角点检测算法进行特征点优选,得到特征点;
步骤S3:利用灰度质心法对特征点集进行处理确定特征点的方向;
步骤S4:根据特征点集,采用类视网膜描述符提取算法,得到特征描述符;
步骤S5:根据得到的特征描述符,采用学习的方法来提取低相关性的采样点对的位置,得到优化的特征描述符。
在本发明一实施例中,所述步骤S1具体为:取像素点p周围24个像素点为检测模板,p点的灰度值为Ip,设定阈值T,如果24个像素点中有连续14个像素点的灰度值大于Ip+T或小于Ip-T,则p点为角点。
在本发明一实施例中,所述步骤S2具体为:
步骤S21:通过计算局部小窗口W(x,y)在各个方向移动后的灰度情况检测特征点;
步骤S22:将窗口平移[u,v]产生灰度变化E[u,v]为:
其中M是2×2的自相关矩阵,由图像的导数计算:
对矩阵M的两个特征值λmax和λmin进行分析,因为曲率较大的不确定度取决于λmin,定义角点响应函数为λmin;
步骤S23:用Shi-Tomasi算法计算每点的角点响应函数λmin,根据λmin取前N个响应值最大的点确定为特征点。筛选出的特征点的周围至少存在两个不同方向的强边界,这样的特征点易于识别且稳定。
在本发明一实施例中,所述步骤S3具体为:
Rosin定义了图像块的矩:
I(x,y)为图像灰度表达式,该矩的质心为:
设特征点的坐标为O,则OC为该特征点方向,方向角的计算公式如下:
θ=atan2(m01,m10)
参照图3,在本发明一实施例中,所述步骤S4具体为:
步骤S41:采用与视网膜感受域相似的结构,除中间特征点,还划分7层同心圆,每层同心圆上均匀分布6个采样点;
步骤S42:对于各同心圆上的采样点采用不同边长的方形邻域描述,从中间特征点向外,每层的采样边长依次为:1、3、5、7、9、11、13、15;
步骤S43:采样点的邻域灰度均值比较结果级联组成,令F为某特征点描述符,则:
其中,τ(Pab)为二进制测试,N为特征向量维数,Pa为采样点对中a点的位置,Pb为采样点对中b点的位置,I(Pa)和I(Pb)为采样点在采样邻域的灰度均值。
在本发明一实施例中,所述步骤S5具体为:采用模式选取了43个采样点,可以形成个采样点对。因为采用混叠式的感受野,采样点对之间具有较高的相关性,需要选择其中相关性较低的采样点对,提升描述符的区分性。因此采用学习的方法来提取低相关性的采样点对,使用PascalVOC 2007数据库中的部分图像集,从660张图像中提取超过230K个特征点;
步骤S51:利用步骤S1和步骤S2,从660张图像中提取超过230K个特征点并建立矩阵H,每个描述符由43个采样点两两比较组成903维二进制向量,矩阵H的每一行代表一个描述符;
步骤S52:对矩阵H的每一列计算方差,把方差最大的一列取出来,然后计算其他列与该列的协方差,并选择协方差最小的一列加入到新组成的描述向量中;
步骤S53:设置维数上限Nmax=512,反复执行步骤S52直至取出512列,得到512个低相关性的采样点对的位置;
步骤S54:根据得到512个低相关性的采样点对的位置,通过生成512维二进制向量即为优选的特征描述符。
为了让一般技术人员更好的理解本发明的技术方案,以下结合附图对本发明进行详细介绍。
实施例1:
如图4所示,采用4组图像作为重复率比较的实验图像,分别是boat图像对、bikes图像对、leuven图像对和graf图像对。boat图像对间存在着2~2.5倍的缩放和30°~45°的旋转;bikes图像对间存在高斯噪声污染,高斯半径σ=3;leuven图像对间存在明显的光线变化;graf图像对间存在20°~40°的视角变化。分别对4组图像用ORB特征点检测算法和本发明改进方法计算特征点的重复率,可以看出针对存在尺度变换、旋转变化、光照变换、噪声干扰以及视角变换的图像,本发明改进的特征点检测方法都比ORB特征点检测算法在重复率上有所提升。这是因为本发明使用改进的FAST14-24算法剔除了一些边缘的伪角点,排除一定的干扰,并且在特征点优选过程中,使用Shi-Tomasi算法选取曲率变化大,易于识别且稳定的特征点。
实施例2:
实施例2,如图5所示,对实施例1中的4组图像分别利用ORB算法和本发明的改进方法进行匹配,可以看出,本发明改进的ORB特征匹配方法相对于传统ORB算法在匹配正确率上有所提升,正确率提升10%~50%左右。实验结果表明针对各自类型的图像匹配,本发明方法无论从匹配精度上还是鲁棒性上都优于传统ORB算法。
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。
Claims (7)
1.一种改进的ORB特征匹配方法,其特征在于:包括以下步骤:
步骤S1:采用改进的FAST14-24方法进行角点的初步提取,得到角点;
步骤S2:根据得到的角点,采用Shi-Tomasi角点检测算法进行特征点优选,得到特征点;
步骤S3:利用灰度质心法对特征点集进行处理确定特征点的方向;
步骤S4:根据特征点集,采用类视网膜描述符提取算法,得到特征描述符;
步骤S5:根据得到的特征描述符,采用学习的方法来提取低相关性的采样点对的位置,得到优化的特征描述符;
步骤S6:根据得到的优化的特征描述符,使用汉明距离进行特征匹配。
2.根据权利要求1所述的一种改进的ORB特征匹配方法,其特征在于:所述步骤S1具体为:取像素点p周围24个像素点为检测模板,p点的灰度值为Ip,设定阈值T,如果24个像素点中有连续14个像素点的灰度值大于Ip+T或小于Ip-T,则p点为角点。
3.根据权利要求1所述的一种改进的ORB特征匹配方法,其特征在于:所述步骤S2具体为:
步骤S21:通过计算局部小窗口W(x,y)在各个方向移动后的灰度情况检测特征点;
步骤S22:将窗口平移[u,v]产生灰度变化E[u,v]为:
其中M是2×2的自相关矩阵,由图像的导数计算:
对矩阵M的两个特征值λmax和λmin进行分析,因为曲率较大的不确定度取决于λmin,定义角点响应函数为λmin;
步骤S23:用Shi-Tomasi算法计算每点的角点响应函数λmin,根据λmin取前N个响应值最大的点确定为特征点。
4.根据权利要求1所述的种改进的ORB特征匹配方法,其特征在于:所述步骤S3具体为:
Rosin定义了图像块的矩:
I(x,y)为图像灰度表达式,该矩的质心为:
设特征点的坐标为O,则OC为该特征点方向,方向角的计算公式如下:
θ=atan2(m01,m10) 。
5.根据权利要求1所述的一种改进的ORB特征匹配方法,其特征在于:所述步骤S4具体为:
步骤S41:采用与视网膜感受域相似的结构,除中间特征点,还划分7层同心圆,每层同心圆上均匀分布6个采样点;
步骤S42:对于各同心圆上的采样点采用不同边长的方形邻域描述,从中间特征点向外,每层的采样边长依次为:1、3、5、7、9、11、13、15;
步骤S43:采样点的邻域灰度均值比较结果级联组成,令F为某特征点描述符,则:
其中,τ(Pab)为二进制测试,N为特征向量维数,Pa为采样点对中a点的位置,Pb为采样点对中b点的位置,I(Pa)和I(Pb)为采样点在采样邻域的灰度均值。
6.根据权利要求1所述的一种改进的ORB特征匹配方法,其特征在于:所述步骤S5具体为:
步骤S51:利用步骤S1和步骤S2,从660张图像中提取超过230K个特征点并建立矩阵H,每个描述符由43个采样点两两比较组成903维二进制向量,矩阵H的每一行代表一个描述符;
步骤S52:对矩阵H的每一列计算方差,把方差最大的一列取出来,然后计算其他列与该列的协方差,并选择协方差最小的一列加入到新组成的描述向量中;
步骤S53:设置维数上限Nmax=512,反复执行步骤S52直至取出512列,得到512个低相关性的采样点对的位置;
步骤S54:根据得到512个低相关性的采样点对的位置,通过生成512维二进制向量即为优选的特征描述符。
7.根据权利要求1所述的一种改进的ORB特征匹配方法,其特征在于:所述步骤S6具体为:汉明距离是指两个等长的二进制字符串中,将其中一个变为另一个所需要作的最小替换次数。假设改进的ORB 描述符的两个特征向量F1、F2,令F1=m1,m2,…,m512,F2=n1,n2,…,n512,则F1、F2的汉明距离为:
通过确定汉明距离的阈值,判断特征向量是否匹配。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810880470.XA CN109146861B (zh) | 2018-08-04 | 2018-08-04 | 一种改进的orb特征匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810880470.XA CN109146861B (zh) | 2018-08-04 | 2018-08-04 | 一种改进的orb特征匹配方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109146861A true CN109146861A (zh) | 2019-01-04 |
CN109146861B CN109146861B (zh) | 2021-09-28 |
Family
ID=64791480
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810880470.XA Expired - Fee Related CN109146861B (zh) | 2018-08-04 | 2018-08-04 | 一种改进的orb特征匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109146861B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110991501A (zh) * | 2019-11-19 | 2020-04-10 | 东南大学 | 一种基于Hessian矩阵的改进ORB特征点匹配方法 |
CN113837206A (zh) * | 2021-09-29 | 2021-12-24 | 佛山市南海区广工大数控装备协同创新研究院 | 一种基于机器学习svm的图像角点检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104376548A (zh) * | 2014-11-07 | 2015-02-25 | 中国电子科技集团公司第二十八研究所 | 一种基于改进型surf算法的图像快速拼接方法 |
CN106204637A (zh) * | 2016-06-29 | 2016-12-07 | 深圳市优象计算技术有限公司 | 光流计算方法 |
CN106558065A (zh) * | 2015-09-17 | 2017-04-05 | 西安翔舟航空技术有限公司 | 基于图像颜色和纹理分析实现对目标的实时视觉跟踪方法 |
US20170323175A1 (en) * | 2013-12-09 | 2017-11-09 | Nant Holdings Ip, Llc | Feature density object classification, systems and methods |
-
2018
- 2018-08-04 CN CN201810880470.XA patent/CN109146861B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170323175A1 (en) * | 2013-12-09 | 2017-11-09 | Nant Holdings Ip, Llc | Feature density object classification, systems and methods |
CN104376548A (zh) * | 2014-11-07 | 2015-02-25 | 中国电子科技集团公司第二十八研究所 | 一种基于改进型surf算法的图像快速拼接方法 |
CN106558065A (zh) * | 2015-09-17 | 2017-04-05 | 西安翔舟航空技术有限公司 | 基于图像颜色和纹理分析实现对目标的实时视觉跟踪方法 |
CN106204637A (zh) * | 2016-06-29 | 2016-12-07 | 深圳市优象计算技术有限公司 | 光流计算方法 |
Non-Patent Citations (2)
Title |
---|
ADEL E 等: "Image stitching system based on ORB feature based technique and compensation blending", 《INTERNATIONAL JOURNAL OF ADVANCED COMPUTER SCIENCE AND APPLICATIONS》 * |
江腾达 等: "空间非合作目标角点检测方法的比较研究", 《信息工程大学学报》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110991501A (zh) * | 2019-11-19 | 2020-04-10 | 东南大学 | 一种基于Hessian矩阵的改进ORB特征点匹配方法 |
CN113837206A (zh) * | 2021-09-29 | 2021-12-24 | 佛山市南海区广工大数控装备协同创新研究院 | 一种基于机器学习svm的图像角点检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109146861B (zh) | 2021-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103310453B (zh) | 一种基于子图像角点特征的快速图像配准方法 | |
CN105488815B (zh) | 一种支持目标尺寸变化的实时对象跟踪方法 | |
CN113361542B (zh) | 一种基于深度学习的局部特征提取方法 | |
CN105759967B (zh) | 一种基于深度数据的手部全局姿态检测方法 | |
Wang et al. | Gaussian focal loss: Learning distribution polarized angle prediction for rotated object detection in aerial images | |
CN106023171B (zh) | 一种基于转弯半径的图像角点检测方法 | |
CN104834931A (zh) | 一种基于小波变换的改进的尺度不变特征匹配算法 | |
CN106599810B (zh) | 一种基于栈式自编码的头部姿态估计方法 | |
CN104318559A (zh) | 用于视频图像匹配的特征点快速检测方法 | |
CN109766752B (zh) | 一种基于深度学习的目标匹配和定位方法及系统、计算机 | |
CN108257153B (zh) | 一种基于方向梯度统计特征的目标跟踪方法 | |
Peng et al. | Harris scale invariant corner detection algorithm based on the significant region | |
CN108319961B (zh) | 一种基于局部特征点的图像roi快速检测方法 | |
CN109146861A (zh) | 一种改进的orb特征匹配方法 | |
Chao-jian et al. | Image target identification of UAV based on SIFT | |
Kang et al. | Image registration based on harris corner and mutual information | |
Han et al. | Accurate and robust vanishing point detection method in unstructured road scenes | |
CN116310837A (zh) | 一种sar舰船目标旋转检测方法及系统 | |
CN113947683B (zh) | 指尖点检测方法、系统及指尖点运动轨迹识别方法、系统 | |
Guo et al. | A hybrid framework based on warped hierarchical tree for pose estimation of texture-less objects | |
Lou et al. | Multi-Scale Vision Transformer for Defect Object Detection | |
Orlov et al. | Vehicle Pose Estimation: Exploring Angular Representations | |
Mao et al. | Feature extraction and matching of Slam image based on improved SIFT algorithm | |
Qiu et al. | Target tracking and localization of binocular mobile robot using CAMShift and SIFT | |
CN118096836B (zh) | 基于旋转等变网络与三重注意力机制目标跟踪方法与系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20210928 |