CN105678307B - 基于fast-surf的移动端实时特征检测匹配方法 - Google Patents

基于fast-surf的移动端实时特征检测匹配方法 Download PDF

Info

Publication number
CN105678307B
CN105678307B CN201610016579.XA CN201610016579A CN105678307B CN 105678307 B CN105678307 B CN 105678307B CN 201610016579 A CN201610016579 A CN 201610016579A CN 105678307 B CN105678307 B CN 105678307B
Authority
CN
China
Prior art keywords
point
characteristic point
small echo
haar small
circle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201610016579.XA
Other languages
English (en)
Other versions
CN105678307A (zh
Inventor
刘惠义
尤智
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hohai University HHU
Original Assignee
Hohai University HHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hohai University HHU filed Critical Hohai University HHU
Priority to CN201610016579.XA priority Critical patent/CN105678307B/zh
Publication of CN105678307A publication Critical patent/CN105678307A/zh
Application granted granted Critical
Publication of CN105678307B publication Critical patent/CN105678307B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于FAST‑SURF的移动端实时特征检测匹配方法,包括以下步骤:步骤一,对采集的图片建立特征库:对图片上的特征点建立KD‑tree,形成特征库数据;步骤二,读入图像,并将图像转换成灰度图,计算灰度图上每个点的灰度值;步骤三,采用改进的FAST算法检测特征点;步骤四,采用简化的SURF算法对特征点建立描述符;步骤五,将描述符与特征库中的特征点进行匹配。该方法采用改进的FAST算法检测特征点,再采用简化的SURF算法计算特征点的方向,并建立特征描述符,然后将建立好的特征点描述符与数据库中的特征描述符进行匹配,处理图像花费时间短,在移动端能实时处理自然特征检测与匹配。

Description

基于FAST-SURF的移动端实时特征检测匹配方法
技术领域
本发明涉及一种基于FAST-SURF的移动端实时特征检测匹配方法,属于移动端增强现实技术领域。
背景技术
在增强现实技术中,基于自然特征的跟踪注册方法复杂度高,对计算能力的要求相当高,其中的基于计算机视觉的跟踪注册方法主要涉及的就是特征点的检测和匹配。而移动设备因其计算设施(吞吐量低,浮点运算能力差)和内存带宽(内存大小有限,速度缓慢,缓存小)方面不足,使得技术表现效果受到了限制。因此在移动设备上兼顾效果跟效率是一个难题。FAST算法最大的特点就在于其计算效率。正是由于其高速性能,适合应用在移动平台的实时视频图像处理中。但传统FAST算法检测出来的角点包含伪角点,需要增加计算量通过非极值约束来去除伪角点。采用SURF描述子来进行描述特征点,匹配精度高,但是由于其计算复杂度过大,需要对其进行简化以便于在移动端实时运行。
发明内容
针对移动终端自然特征提取和匹配的处理能力不足的技术问题,本发明提供了一种基于FAST-SURF的移动端实时特征检测匹配方法,采用改进的FAST算法检测特征点,再采用简化过的SURF算法计算特征点的方向,并建立特征描述符,然后将建立好的特征点描述符与数据库中的特征描述符进行匹配。该算法处理图像花费时间短,在移动端能实时处理自然特征检测与匹配。
为解决上述技术问题,本发明提供一种基于FAST-SURF的移动端实时特征检测匹配方法,包括以下步骤:
步骤一,对采集的图片建立特征库:对图片上的特征点建立KD-tree,形成特征库数据;
步骤二,读入图像,并将图像转换成灰度图,计算灰度图上每个点的灰度值;
步骤三,采用改进的FAST算法检测特征点;
步骤四,采用简化的SURF算法对特征点建立描述符;
步骤五,将描述符与特征库中的特征点进行匹配。
其中,所述步骤三具体为,以待测点P为圆心,选取半径为3的圆,将圆周上的16个像素点分别用1、2、、、15、16进行标记;设待测点P的灰度值为Ip、圆上每个像素点的灰度值为Ix、灰度阈值为t、圆周上连续N个像素点组成的集合为S,其中x=1、2、、、15、16,N=9;
若圆周上任意一个像素点x满足条件:或者则以待测点P为对称中心,将圆内的点分成对称的点对di-di’,若点对di-di’满足条件|Ip-di|<t,|Ip-di’|<t,则待测点P为角点,即特征点,否则不是;
若圆周上任意一个像素点x不满足条件:或者则选取下一个待测点。
所述步骤四包括,一,计算特征点的方向,以特征点为圆心,半径为3的圆计算特征点的方向;二,建立描述符,以特征点为中心,选取9×9的区域,并分成9个3×3的子域,每个子域计算得到4个数据,产生一个36维的向量作为特征点的描述符。
计算特征点的方向具体为,1.以特征点为圆心,选取半径为3的圆形区域,将圆心角为的扇形绕圆心旋转,每次旋转15°,得到24个扇形区域;2.采用边长为2的滤波器,计算每个扇形区域内的每个点在x轴方向的Haar小波响应和y轴方向的Haar小波响应,并以特征点为中心的二阶高斯函数值对x轴方向的Haar小波响应和y轴方向的Haar小波响应分别进行加权,加权后的x轴方向的Haar小波响应和y轴方向的Haar小波响应分别作为扇形区域内的点在扇形区域内沿横坐标x轴方向的水平响应和沿纵坐标y轴方向的垂直响应;3.将每个扇形区域内所有点的水平响应和垂直响应分别相加,得到一个局部向量,在24个扇形区域中,长度最长的局部向量作为特征点的方向,记特征点的方向角为θ。
建立描述符具体为,1.以特征点为中心,选取9×9的区域,并分成9个3×3的子域 2.采用边长为2的滤波器,分别计算每个子域的水平方向Haar小波响应hx i,j和垂直方向 Haar小波响应hy i,j,其中i=1,2,、、、,4,j=1,2,、、、,9,并以特征点为中心的二阶高斯函数 值分别对水平方向Haar小波响应hx i,j和垂直方向Haar小波响应hy i,j进行加权,得到加权后 的水平方向Haar小波响应hX i,j和垂直方向Haar小波响应hY i,j,分别对水平方向Haar小波响 应hx i,j和垂直方向Haar小波响应hy i,j进行旋转变换,得到在特征点方向上的分量旋转变换公式分别为旋转变换公式分别为其中w为以特征点 为中心的二阶高斯权值,θ为特征点的方向角;3.对于每个子域,分别计算出则每个子域就产生一个4维描述向量将9个子域产生的描述向量连接起来,得到长度为 36的描述向量,即36维的描述符。
所述步骤五为,将步骤四得到的36维描述与步骤一建立的KD-tree中的节点进行比对,找出与描述向量处在同一个空间的点。
本发明所达到的有益技术效果:本发明提供的方法相比于传统的FAST算法提高了特征点检测的准确性,减少了特征点中的伪角点。同时,简化了SURF描述符生成方法,大大降低了运算复杂度。采用该方法开发的程序能在移动平台上实时运行。
附图说明
图1本发明的流程框图;
图2本发明之以待测点P为圆心,半径为3的圆形区域示意图;
图3本发明之x方向(a)和y方向(b)的Haar小波响应滤波器;
图4本发明之以特征点为圆心,半径为3的圆形区域示意图。
具体实施方式
为了能更好的了解本发明的技术特征、技术内容及其达到的技术效果,现将本发明的附图结合实施例进行更详细的说明。
下面结合附图和实施例对本发明专利进一步说明。
如图1所示,本发明提供一种基于FAST-SURF的移动端实时特征检测匹配方法,包括以下步骤:
步骤一,对采集的图片建立特征库:对图片上的特征点建立KD-tree,形成特征库数据;
步骤二,读入图像,并将图像转换成灰度图,计算灰度图上每个点的灰度值;
步骤三,采用改进的FAST算法检测特征点;
如图2所示,以待测点P为圆心,选取半径为3的圆,将圆周上的16个像素点分别用1、2、、、15、16进行标记;设待测点P的灰度值为Ip、圆上每个像素点的灰度值为Ix、灰度阈值为t、圆周上连续N个像素点组成的集合为S,其中x=1、2、、、15、16,N=9;
若圆周上任意一个像素点x满足条件:或者则以待测点P为对称中心,将圆内的点分成对称的点对di-di’,若点对di-di’满足条件|Ip-di|<t,|Ip-di’|<t,则待测点P为角点,即特征点,否则不是;
若圆周上任意一个像素点x不满足条件:或者则选取下一个待测点。
步骤四,采用简化的SURF算法对特征点建立描述符,包括:
一,计算特征点的方向,以特征点为圆心,半径为3的圆计算特征点的方向,具体为:1.以特征点为圆心,选取半径为3的圆形区域,将圆心角为的扇形绕圆心旋转,每次旋转15°,得到24个扇形区域,如图4所示;2.采用边长为2的滤波器,计算每个扇形区域内的每个点在x轴方向的Haar小波响应和y轴方向的Haar小波响应,如图3所示,并以特征点为中心的二阶高斯函数值对x轴方向的Haar小波响应和y轴方向的Haar小波响应分别进行加权,加权后的x轴方向的Haar小波响应和y轴方向的Haar小波响应分别作为扇形区域内的点在扇形区域内沿横坐标x轴方向的水平响应和沿纵坐标y轴方向的垂直响应;3.将每个扇形区域内所有点的水平响应和垂直响应分别相加,得到一个局部向量,在24个扇形区域中,长度最长的局部向量作为特征点的方向,记特征点的方向角为θ。
二,建立描述符,以特征点为中心,选取9×9的区域,并分成9个3×3的子域,每个 子域计算得到4个数据,产生一个36维的向量作为特征点的描述符,具体为:1.以特征点为 中心,选取9×9的区域,并分成9个3×3的子域;2.采用边长为2的滤波器,分别计算每个子 域的水平方向Haar小波响应hx i,j和垂直方向Haar小波响应hy i,j,其中i=1,2,、、、,4,j=1, 2,、、、,9,并以特征点为中心的二阶高斯函数值分别对水平方向Haar小波响应hx i,j和垂直 方向Haar小波响应hy i,j进行加权,得到加权后的水平方向Haar小波响应hX i,j和垂直方向 Haar小波响应hY i,j,分别对水平方向Haar小波响应hx i,j和垂直方向Haar小波响应hy i,j进行 旋转变换,得到在特征点方向上的分量旋转变换公式分别为旋转变换公式分别 为其中w为以特征 点为中心的二阶高斯权值,θ为特征点的方向角;3.对于每个子域,分别计算出则每个子域就产生一个4维描述向量将9个子域产生的描述向量连接起来,得到长度为 36的描述向量,即36维的描述符。
步骤五,将描述符与特征库中的特征点进行匹配:
将步骤四得到的36维描述与步骤一建立的KD-tree中的节点进行比对,找出与描述向量处在同一个空间的点。
以上已以较佳实施例公布了本发明,然其并非用以限制本发明,凡采取等同替换或等效变换的方案所获得的技术方案,均落在本发明的保护范围内。

Claims (2)

1.一种基于FAST-SURF的移动端实时特征检测匹配方法,其特征在于,包括以下步骤:
步骤一,对采集的图片建立特征库:对图片上的特征点建立KD-tree,形成特征库数据;
步骤二,读入图像,并将图像转换成灰度图,计算灰度图上每个点的灰度值;
步骤三,采用改进的FAST算法检测特征点,具体步骤如下:
以待测点P为圆心,选取半径为3的圆,将圆周上的16个像素点分别用1、2、... 、15、16进行标记;设待测点P的灰度值为Ip、圆上每个像素点的灰度值为Ix、灰度阈值为t、圆周上连续N个像素点组成的集合为S,其中x=1、2、... 、15、16,N=9;
若圆周上任意一个像素点x满足条件:Ix>IP+t或者Ix<IP-t,则以待测点P为对称中心,将圆内的点分成对称的点对di-di’,若点对di-di’满足条件|Ip-di|<t,|Ip-di’|<t,则待测点P为角点,即特征点,否则不是;
若圆周上任意一个像素点x不满足条件:Ix>IP+t或者Ix<IP-t,则选取下一个待测点;
步骤四,采用简化的SURF算法对特征点建立描述符,具体为:
一,计算特征点的方向,以特征点为圆心,半径为3的圆计算特征点的方向,具体为,1.以特征点为圆心,选取半径为3的圆形区域,将圆心角为的扇形绕圆心旋转,每次旋转15°,得到24个扇形区域;2.采用边长为2的滤波器,计算每个扇形区域内的每个点在x轴方向的Haar小波响应和y轴方向的Haar小波响应,并以特征点为中心的二阶高斯函数值对x轴方向的Haar小波响应和y轴方向的Haar小波响应分别进行加权,加权后的x轴方向的Haar小波响应和y轴方向的Haar小波响应分别作为扇形区域内的点在扇形区域内沿横坐标x轴方向的水平响应和沿纵坐标y轴方向的垂直响应;3.将每个扇形区域内所有点的水平响应和垂直响应分别相加,得到一个局部向量,在24个扇形区域中,长度最长的局部向量作为特征点的方向,记特征点的方向角为θ;
二,建立描述符,以特征点为中心,选取9×9的区域,并分成9个3×3的子域,每个子域计算得到4个数据,产生一个36维的向量作为特征点的描述符,具体为,1.以特征点为中心,选取9×9的区域,并分成9个3×3的子域;2.采用边长为2的滤波器,分别计算每个子域的水平方向Haar小波响应hx i,j和垂直方向Haar小波响应hy i,j,其中i=1,2,、、、,4,j=1,2,、、、,9,并以特征点为中心的二阶高斯函数值分别对水平方向Haar小波响应hx i,j和垂直方向Haar小波响应hy i,j进行加权,得到加权后的水平方向Haar小波响应hX i,j和垂直方向Haar小波响应hY i,j,分别对水平方向Haar小波响应hx i,j和垂直方向Haar小波响应hy i,j进行旋转变换,得到在特征点方向上的分量旋转变换公式分别为 其中w为以特征点为中心的二阶高斯权值,θ为特征点的方向角;3.对于每个子域,分别计算出则每个子域就产生一个4维描述向量将9个子域产生的描述向量连接起来,得到长度为36的描述向量,即36维的描述符;
步骤五,将描述符与特征库中的特征点进行匹配。
2.根据权利要求1所述的基于FAST-SURF的移动端实时特征检测匹配方法,其特征在于:所述步骤五为,将步骤四得到的36维描述与步骤一建立的KD-tree中的节点进行比对,找出与描述向量处在同一个空间的点。
CN201610016579.XA 2016-01-11 2016-01-11 基于fast-surf的移动端实时特征检测匹配方法 Expired - Fee Related CN105678307B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610016579.XA CN105678307B (zh) 2016-01-11 2016-01-11 基于fast-surf的移动端实时特征检测匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610016579.XA CN105678307B (zh) 2016-01-11 2016-01-11 基于fast-surf的移动端实时特征检测匹配方法

Publications (2)

Publication Number Publication Date
CN105678307A CN105678307A (zh) 2016-06-15
CN105678307B true CN105678307B (zh) 2019-08-06

Family

ID=56300172

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610016579.XA Expired - Fee Related CN105678307B (zh) 2016-01-11 2016-01-11 基于fast-surf的移动端实时特征检测匹配方法

Country Status (1)

Country Link
CN (1) CN105678307B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108388854A (zh) * 2018-02-11 2018-08-10 重庆邮电大学 一种基于改进fast-surf算法的定位方法
CN108957440B (zh) * 2018-05-04 2022-01-04 中咨数据有限公司 一种基于改进fast-surf算法的无人机雷达设备
CN108761460B (zh) * 2018-05-04 2022-01-04 中咨数据有限公司 一种基于改进fast-surf算法的v波段功率放大器的车载雷达设备
CN109472770B (zh) * 2018-09-27 2022-04-08 南通大学 一种印刷电路板检测中的图像特征点快速匹配方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102332092A (zh) * 2011-09-14 2012-01-25 广州灵视信息科技有限公司 一种基于视频分析的火焰检测方法
CN102831382A (zh) * 2011-06-15 2012-12-19 北京三星通信技术研究有限公司 人脸跟踪设备和方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6603882B2 (en) * 2001-04-12 2003-08-05 Seho Oh Automatic template generation and searching method
US7580560B2 (en) * 2005-07-18 2009-08-25 Mitutoyo Corporation System and method for fast template matching by adaptive template decomposition

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102831382A (zh) * 2011-06-15 2012-12-19 北京三星通信技术研究有限公司 人脸跟踪设备和方法
CN102332092A (zh) * 2011-09-14 2012-01-25 广州灵视信息科技有限公司 一种基于视频分析的火焰检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于FAST-SURF算法的移动增强现实跟踪技术;陈智翔等;《计算机与现代化》;20130918;第2013年卷(第9期);第105-108页

Also Published As

Publication number Publication date
CN105678307A (zh) 2016-06-15

Similar Documents

Publication Publication Date Title
CN105678307B (zh) 基于fast-surf的移动端实时特征检测匹配方法
CN103400384B (zh) 结合区域匹配和点匹配的大视角图像匹配方法
CN110414533A (zh) 一种改进orb的特征提取与匹配方法
CN105678806B (zh) 一种基于Fisher判别的生猪行为轨迹自动跟踪方法
CN108346162B (zh) 基于结构信息和空间约束的遥感图像配准方法
Yuan et al. Sub oriented histograms of local binary patterns for smoke detection and texture classification
CN108427924A (zh) 一种基于旋转敏感特征的文本回归检测方法
CN104809731B (zh) 一种基于梯度二值化的旋转尺度不变场景匹配方法
CN107968916A (zh) 一种适用于非固定场景的快速视频稳像方法
CN105160686B (zh) 一种基于改进sift算子的低空多视角遥感影像匹配方法
CN105335725A (zh) 一种基于特征融合的步态识别身份认证方法
CN103632142A (zh) 基于局部坐标系特征描述的图像匹配方法
CN104008379A (zh) 一种基于surf特征的物体识别方法
CN105335952B (zh) 匹配代价计算方法和装置、以及视差值计算方法和设备
CN104966290B (zh) 一种基于sift描述子的自适应权重立体匹配方法
CN104050675B (zh) 基于三角形描述的特征点匹配方法
CN107506795A (zh) 一种面向图像匹配的局部灰度直方图特征描述子建立方法和图像匹配方法
CN113888461A (zh) 基于深度学习的小五金件缺陷检测方法、系统及设备
CN107133986A (zh) 一种基于二维标定物的相机标定方法
WO2024060978A1 (zh) 关键点检测模型训练及虚拟角色驱动的方法和装置
CN106412441A (zh) 一种视频防抖控制方法以及终端
CN113673515A (zh) 一种计算机视觉目标检测算法
CN103093226B (zh) 一种用于图像特征处理的ratmic描述子的构造方法
CN116229205A (zh) 基于小样本特征迁移的口红产品表面缺陷数据增广方法
CN111950563A (zh) 一种图像匹配方法、装置以及计算机可读存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190806

Termination date: 20220111

CF01 Termination of patent right due to non-payment of annual fee