CN106250898B - 一种基于尺度预测的图像局部区域特征提取方法 - Google Patents

一种基于尺度预测的图像局部区域特征提取方法 Download PDF

Info

Publication number
CN106250898B
CN106250898B CN201610605726.7A CN201610605726A CN106250898B CN 106250898 B CN106250898 B CN 106250898B CN 201610605726 A CN201610605726 A CN 201610605726A CN 106250898 B CN106250898 B CN 106250898B
Authority
CN
China
Prior art keywords
image
feature
shooting
global characteristics
rotation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610605726.7A
Other languages
English (en)
Other versions
CN106250898A (zh
Inventor
田阳
崔祜涛
余萌
徐田来
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Institute of Technology
Original Assignee
Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology filed Critical Harbin Institute of Technology
Priority to CN201610605726.7A priority Critical patent/CN106250898B/zh
Publication of CN106250898A publication Critical patent/CN106250898A/zh
Application granted granted Critical
Publication of CN106250898B publication Critical patent/CN106250898B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

一种基于尺度预测的图像局部区域特征提取方法,涉及行星着陆中图像处理技术领域,具体涉及一种基于尺度预测的特征提取方法。为了解决SURF特征提取方法不具有仿射不变性的问题。本发明首先对当前所拍摄图像在目标天体表面的位置进行初步估计,选定全局特征库中的搜索范围;然后根据探测器拍照时的位姿信息以及全局特征库中相应特征点的特征尺度和方向信息,预测该特征在拍摄图像中的特征尺度和旋转角度;并将拍摄的图像按照所预测的旋转角度旋转获得旋转图像,根据二次型求极大值方法以及预测的特征尺度生成特征检测模板,将特征检测模板与旋转图像卷积并在位置空间进行非极大值抑制从而实现特征提取。本发明适用于行星着陆自主导航的图像处理。

Description

一种基于尺度预测的图像局部区域特征提取方法
技术领域
本发明涉及行星着陆自主导航中图像处理技术领域,具体涉及一种基于尺度预测的特征提取方法。
背景技术
在行星着陆自主导航任务设计中,需要通过前期在轨观测器观测图像及行星车收集的高清图像中建立一个标定有行星固联坐标系的二维图像数据库,在着陆过程中,探测器通过从星载相机对地拍摄的图像中提取视觉信息并与数据库进行匹配来获得自身的绝对位姿信息,因此,高效、准确的识别图像中的视觉信息是行星自主导航任务的重要前提。由于组建的数据库与行星着陆所拍摄的图像存在光照、拍摄角度、尺度等差异,从图像中提炼的视觉信息也应具有相应的不变性以保证有效的特征匹配;与此同时,在星载计算机处理能力有限情况下,视觉特征的提取与匹配还应具备实时性。
图像局部特征的识别隶属计算机视觉领域,在近年来受到了学者们的广泛关注。其中最有代表性的算法是D.Lowe提出的尺度不变特征描述子,又称SIFT。秉承SIFT的构思,亦有学者提出了更高效的算法,如SURF,PCA-SIFT以及具有仿射不变性的Affine-SIFT算法等。概括而言,图像局部特亦可以代表为图像中局部纹理变化较为明显的区域。虽然SIFT描述子在大部分情况下能够正确匹配,但仍有数处误匹配存在。
SURF算法与SIFT算法均可以归类为尺度不变特征家族当中。具体而言,该类算法都是将图像放在尺度空间中,并在多尺度描述中寻找一个类似于“高斯斑点”结构的最佳相应以及对应的特征尺度。为了找到上述结构,SURF与SIFT都使用了“多尺度特征检测子”来分析图像的尺度空间表征。秉承SIFT的设计思想,SURF算法做出了更简洁的近似,进一步降低了计算量。不同于DoG算子,SURF算法使用了Hessian矩阵与积分图像来近似二阶高斯微分,并用盒子滤波器对积分图像进行操作,从而减少了计算量,增加了计算速度。但是由于拍摄条件的不同,在轨拍摄和下降过程中的在线拍摄对同一特征目标的成像结果是不同的,SURF特征提取方法不具有仿射不变性,而且计算量仍然较大。
发明内容
本发明为了解决现有的SURF特征提取方法不具有仿射不变性的问题。
一种基于尺度预测的图像局部区域特征提取方法,包括以下步骤:
步骤一:根据行星着陆过程中探测器相对于预定着陆点的位置、探测器体坐标系相对于在轨拍摄行星表面图像是的姿态及相机焦距、视场角等信息,对当前所拍摄图像在目标天体表面的位置进行初步估计,选定全局特征库中的搜索范围;
步骤二:根据探测器拍照时的位姿信息以及全局特征库中相应特征点的特征尺度,预测该特征在拍摄图像中的特征尺度;
所述步骤二的具体实现过程如下:
建立全局特征库拍摄图像时探测器与该特征的距离为d1,建立全局特征库拍摄图像时所用相机的焦距为f1,建立全局特征库拍摄图像时相机光心与特征点之间连线和光轴的夹角为α1,设全局特征库中的某特征的特征尺度为σ1,则该特征在下降段图像中会产生放缩变换,其尺度变换为
其中,下标2对应的参数表示相应物理量在下降段拍摄图像时的值,即:下降段拍摄图像时探测器与该特征的距离为d2,下降段拍摄图像时所用相机的焦距为f2,下降段拍摄图像时相机光心与特征点之间连线和光轴的夹角为α2
设探测器下降时的俯仰角为θ,偏航角为ψ,滚转角为则所述全局特征库中的某特征在下降段图像中会产生仿射变换,相应的椭圆长、短半轴为
步骤三:根据探测器拍照时的姿态信息以及全局特征库中相应特征点的方向信息,预测该特征在拍摄图像中的旋转角度;
步骤三的具体实现过程如下:
所述全局特征库中的某特征在下降段图像中会产生旋转变换,旋转角度为
步骤四:将拍摄的图像按照所预测的旋转角度旋转获得旋转图像;
步骤五:根据二次型求极大值方法仿照SURF检测原理以及预测的特征尺度生成特征检测模板;
步骤五的具体实现过程如下:
首先根据所预测的特征尺度建立二阶高斯微分盒子滤波器Dxx、Dxy和Dyy,然后根据SURF原理建立求Hessian矩阵行列式最大值问题:
从而将上式转化为一个二次型优化问题:
其中,μ、ν分别为像元像线坐标,DSURF(μ,ν)为SURF特征检测子在(μ,ν)处的Hessian响应值,I为将图像中与盒子滤波器卷积的对应部分重新排列成的列向量,G为相应的盒子滤波器重新排列成的行向量;
对上式中的二次型,通过进行二次型矩阵的特征值分解求取在仿射变换条件下的特征检测模板。
步骤六:将特征检测模板与旋转图像卷积并在位置空间进行非极大值抑制从而实现特征提取。
本发明对当前所拍摄图像在目标天体表面的位置进行初步估计,选定全局特征数据库中的搜索范围,根据探测器拍照时的位姿信息计算数据库中相应特征在拍摄图像中特征尺度和旋转角度,根据旋转角度旋转图像,根据特征尺度生成特征检测模板并对图像进行检测。本发明与现有技术相比的优点在于:能够实现仿射不变性特征检测,同时计算量小,计算效率高,是着陆过程中进行特征检测的理想方法。
附图说明
图1为本发明的流程图;
图2为三维模拟地景正射影像;
图3-1至图3-3为不同高度、拍摄角度下的下降图像影像示意图;
图4为仿真测试方法示意图;
图5为两种SURF特征检测子仿真比较示例图;其中,图5(a)和图5(c)使用了本发明所提出的仿射不变SURF模板进行SURF特征检测示例,图5(b)和图5(d)为标准的SURF检测算子示例;
图6为两种SURF检测子仿真比较结果;其中,图6(a)为两种算法平均定位误差随姿态角改变量变化的曲线,图6(b)为误匹配率随姿态角该变量变化的曲线。
具体实施方式
具体实施方式一:结合图1说明本实施方式,
一种基于尺度预测的图像局部区域特征提取方法,包括以下步骤:
步骤一:根据行星着陆过程中探测器相对于预定着陆点的位置、探测器体坐标系相对于在轨拍摄行星表面图像是的姿态及相机焦距、视场角等信息,对当前所拍摄图像在目标天体表面的位置进行初步估计,选定全局特征库中的搜索范围;
步骤二:根据探测器拍照时的位姿信息以及全局特征库中相应特征点的特征尺度,预测该特征在拍摄图像中的特征尺度;
步骤三:根据探测器拍照时的姿态信息以及全局特征库中相应特征点的方向信息,预测该特征在拍摄图像中的旋转角度;
步骤四:将拍摄的图像按照所预测的旋转角度旋转获得旋转图像;
步骤五:根据二次型求极大值方法仿照SURF检测原理以及预测的特征尺度生成特征检测模板;
步骤六:将特征检测模板与旋转图像卷积并在位置空间进行非极大值抑制从而实现特征提取。
具体实施方式二:
本实施方式所述步骤二的具体实现过程如下:
建立全局特征库拍摄图像时探测器与该特征的距离为d1,建立全局特征库拍摄图像时所用相机的焦距为f1,建立全局特征库拍摄图像时相机光心与特征点之间连线和光轴的夹角为α1,设全局特征库中的某特征的特征尺度为σ1,则该特征在下降段图像中会产生放缩变换,其尺度变换为
其中,下标2对应的参数表示相应物理量在下降段拍摄图像时的值,即:下降段拍摄图像时探测器与该特征的距离为d2,下降段拍摄图像时所用相机的焦距为f2,下降段拍摄图像时相机光心与特征点之间连线和光轴的夹角为α2
设探测器下降时的俯仰角为θ,偏航角为ψ,滚转角为则所述全局特征库中的某特征在下降段图像中会产生仿射变换,相应的椭圆长、短半轴为
其它步骤及参数与具体实施方式一相同。
具体实施方式三:
本实施方式所述步骤三的具体实现过程如下:
所述全局特征库中的某特征在下降段图像中会产生旋转变换,旋转角度为
其它步骤及参数与具体实施方式一或二相同。
具体实施方式四:
本实施方式所述步骤五的具体实现过程如下:
首先根据所预测的特征尺度建立二阶高斯微分盒子滤波器Dxx、Dxy和Dyy,然后根据SURF原理建立求Hessian矩阵行列式最大值问题:
从而将上式转化为一个二次型优化问题:
其中,μ、ν分别为像元像线坐标,DSURF(μ,ν)为SURF特征检测子在(μ,ν)处的Hessian响应值,I为将图像中与盒子滤波器卷积的对应部分重新排列成的列向量,G为相应的盒子滤波器重新排列成的行向量;
对上式中的二次型,通过进行二次型矩阵的特征值分解求取在仿射变换条件下的特征检测模板。
其它步骤及参数与具体实施方式一至三之一相同。
实施例
为验证基于仿射不变SURF模板的性能,在此选择标准SURF算法进行比较。采用三维实物地景做为图像采集样本,首先在正射视角下所拍摄的图像作为参照样本来提取SURF特征作为基准,接着变换相机的拍摄角度、高度来模拟行星着陆段相机所拍摄的序列图像,并从中提取SURF特征与样本SURF特征进行匹配。图2和图3所示为行星三维地景以及下降段图像;图2为三维模拟地景及正射影像,图3-1至图3-3为序列图像对应不同高度、拍摄角度下的下降图像的示意图;不难看出,下降图像与正射影像之间存在典型的仿射变换。
此处设计如下比较方案:首先根据多视影像及相机内外方位信息确定三维视觉数据库,并将三维绝对位置标注在正射影像上。在此基础上,根据拍摄下降图像时相机的位姿信息将数据库SURF特征投影至下降图像上,并根据投影特征与同名特征点的距离来比较两种算法的性能,图4给出了该流程示意图;如图4所示,SURF特征点l经多视影像匹配后可以获得全局位置l=[px,py,pz]{G}(此处将正射视角下相机姿态指向作为全局坐标系指向),其中[px,py,pz]{G}表示全局坐标系下的坐标。R,T分别为下降段对地拍摄点相机相对正射拍摄视角的姿态矩阵及平移量;假设下降段相机拍摄地点为XL,则特征点l在FL相机坐标系下的坐标位置为:
因此,根据上式可以推导出l在下降图像中的二维像素位置m0
表示二维坐标;假设在下降图像中特征l对应的同名点为mL,则定位误差e=|mL-mo|便可以用来衡量特征检测与匹配算法的精度。
图5给出了两种算法与数据库同名特征点的距离示意图,其中相机在拍摄下降图像时,其相对全局系下的姿态角为[0,40,30]deg;图5为两种SURF特征检测子仿真比较示例,其中图5(a)和图5(c)使用了本文所提出的仿射不变SURF模板进行SURF特征检测,图5(b)和图5(d)为标准的SURF检测算子。其中深色实心点(实际是红色实心点,非彩色下显示为深色实心点)为投影特征点,浅色实心点(实际是绿色实心点,非彩色下显示为浅色实心点)为同名特征点。为了使仿真结果更加清晰可辨,在此列举匹配得分前30的特征点。在本示例中,所使用的算法的平均定位误差为4.2个像素,误匹配率为3.7%。使用标准的SURF特征平均定位误差为11.6个像素,误匹配率为3.9%。秉承上述例子的设计思路,通过改变相机的拍摄地点及姿态来模拟下降图像,并统计两种算法的平均定位误差以及误匹配率,得到如下仿真结果:
如图6(a)和图6(b)所示,分别相机相对全局坐标系的三轴姿态角改变量及对应的平均定位误差及误匹配率。其中横轴代表了姿态角该变量的均值,在本次仿真试验中设定为5~40deg区间内变化。图6(a)所示为两种算法平均定位误差随姿态角改变量变化的曲线,图6(b)为误匹配率随姿态角该变量变化的曲线。随下降图像与正射影像的仿射角度改变量的增加,两种算法的性能均有所下降,但仿射不变SURF模板在特征检测计算量降低30%的同时,其定位误差与误匹配率均优于标准的SURF算法。

Claims (4)

1.一种基于尺度预测的图像局部区域特征提取方法,其特征在于其包括以下步骤:
步骤一:根据行星着陆过程中探测器相对于预定着陆点的位置、探测器体坐标系相对于在轨拍摄行星表面图像是的姿态及相机焦距、视场角信息,对当前所拍摄图像在目标天体表面的位置进行初步估计,选定全局特征库中的搜索范围;
步骤二:根据探测器拍照时的位姿信息以及全局特征库中相应特征点的特征尺度,预测该特征在拍摄图像中的特征尺度;
步骤三:根据探测器拍照时的姿态信息以及全局特征库中相应特征点的方向信息,预测该特征在拍摄图像中的旋转角度;
步骤四:将拍摄的图像按照所预测的旋转角度旋转获得旋转图像;
步骤五:根据二次型求极大值方法仿照SURF检测原理以及预测的特征尺度生成特征检测模板;
步骤六:将特征检测模板与旋转图像卷积并在位置空间进行非极大值抑制从而实现特征提取。
2.根据权利要求1所述的一种基于尺度预测的图像局部区域特征提取方法,其特征在于所述步骤二的具体实现过程如下:
建立全局特征库拍摄图像时探测器与该特征的距离为d1,建立全局特征库拍摄图像时所用相机的焦距为f1,建立全局特征库拍摄图像时相机光心与特征点之间连线和光轴的夹角为α1,设全局特征库中的某特征的特征尺度为σ1,则该特征在下降段图像中会产生放缩变换,其尺度变换为
其中,下标2对应的参数表示相应物理量在下降段拍摄图像时的值,即:下降段拍摄图像时探测器与该特征的距离为d2,下降段拍摄图像时所用相机的焦距为f2,下降段拍摄图像时相机光心与特征点之间连线和光轴的夹角为α2
设探测器下降时的俯仰角为θ,偏航角为ψ,滚转角为则所述全局特征库中的某特征在下降段图像中会产生仿射变换,相应的椭圆长、短半轴为
3.根据权利要求2所述的一种基于尺度预测的图像局部区域特征提取方法,其特征在于所述步骤三的具体实现过程如下:
所述全局特征库中的某特征在下降段图像中会产生旋转变换,旋转角度为
4.根据权利要求2所述的一种基于尺度预测的图像局部区域特征提取方法,其特征在于所述步骤五的具体实现过程如下:
首先根据所预测的特征尺度建立二阶高斯微分盒子滤波器Dxx、Dxy和Dyy,然后根据SURF原理建立求Hessian矩阵行列式最大值问题:
从而将上式转化为一个二次型优化问题:
约束条件:||I||≤1
其中,μ、ν分别为像元像线坐标,DSURF(μ,ν)为SURF特征检测子在(μ,ν)处的Hessian响应值,I为将图像中与盒子滤波器卷积的对应部分重新排列成的列向量,G为相应的盒子滤波器重新排列成的行向量;
通过进行二次型矩阵的特征值分解求取在仿射变换条件下的特征检测模板。
CN201610605726.7A 2016-07-28 2016-07-28 一种基于尺度预测的图像局部区域特征提取方法 Active CN106250898B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610605726.7A CN106250898B (zh) 2016-07-28 2016-07-28 一种基于尺度预测的图像局部区域特征提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610605726.7A CN106250898B (zh) 2016-07-28 2016-07-28 一种基于尺度预测的图像局部区域特征提取方法

Publications (2)

Publication Number Publication Date
CN106250898A CN106250898A (zh) 2016-12-21
CN106250898B true CN106250898B (zh) 2019-04-26

Family

ID=57604935

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610605726.7A Active CN106250898B (zh) 2016-07-28 2016-07-28 一种基于尺度预测的图像局部区域特征提取方法

Country Status (1)

Country Link
CN (1) CN106250898B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107506726B (zh) * 2017-08-22 2019-09-10 武汉大学 基于二次型基元多层网络的sar图像分类方法
CN108537732B (zh) * 2018-04-10 2021-11-02 福州大学 基于pca-sift的快速图像拼接方法
CN111324145B (zh) * 2020-02-28 2022-08-16 厦门理工学院 一种无人机自主着陆方法、装置、设备及存储介质
CN111366162B (zh) * 2020-03-13 2021-09-14 青岛科技大学 基于太阳帆板投影与模板匹配的小天体探测器位姿估计方法
CN115933652A (zh) * 2022-11-29 2023-04-07 北京航天飞行控制中心 基于序列图像拼接融合的月球车直驱遥操作驾驶方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103812638A (zh) * 2014-01-22 2014-05-21 北京工业大学 一种加密域surf图像特征提取方法
CN104008379A (zh) * 2014-06-16 2014-08-27 河南科技大学 一种基于surf特征的物体识别方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103812638A (zh) * 2014-01-22 2014-05-21 北京工业大学 一种加密域surf图像特征提取方法
CN104008379A (zh) * 2014-06-16 2014-08-27 河南科技大学 一种基于surf特征的物体识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
SPEEDED-UP SURF: DESIGN OF AN EFFICIENT MULTISCALE FEATURE DETECTOR;Florian Schweiger 等;《2013 IEEE International Conference on Image Processing》;20140213;第3475-3478页
Visual-inertial Navigation for pinpoint planetary landing using scale-based landmark matching;J.Delaune 等;《Robotics and Autonomous Systems》;20160129;第78卷;第63-82页
面向行星着陆视觉导航应用的特征提取与匹配方法研究;余萌;《中国优秀硕士学位论文全文数据库工程科技II辑》;20140615;第C031-246页

Also Published As

Publication number Publication date
CN106250898A (zh) 2016-12-21

Similar Documents

Publication Publication Date Title
CN106250898B (zh) 一种基于尺度预测的图像局部区域特征提取方法
CN111862126B (zh) 深度学习与几何算法结合的非合作目标相对位姿估计方法
CN107063228B (zh) 基于双目视觉的目标姿态解算方法
CN106529538A (zh) 一种飞行器的定位方法和装置
CN109949361A (zh) 一种基于单目视觉定位的旋翼无人机姿态估计方法
CN109344878B (zh) 一种基于ResNet的仿鹰脑特征整合小目标识别方法
Gasbarri et al. Ground tests for vision based determination and control of formation flying spacecraft trajectories
CN110443247A (zh) 一种无人机地面运动小目标实时检测系统及方法
CN109214254B (zh) 一种确定机器人位移的方法及装置
CN105488541A (zh) 增强现实系统中基于机器学习的自然特征点识别方法
CN114926747A (zh) 一种基于多特征聚合与交互的遥感图像定向目标检测方法
Van Pham et al. Vision‐based absolute navigation for descent and landing
CN112634130A (zh) Quick-SIFT算子下无人机航拍图像拼接方法
CN114358133B (zh) 一种基于语义辅助双目视觉slam检测回环帧的方法
Koizumi et al. Development of attitude sensor using deep learning
CN108447092B (zh) 视觉定位标识物的方法及装置
CN111462310A (zh) 一种基于多视几何的螺栓缺陷空间定位方法
Wu et al. Improving robustness of line features for VIO in dynamic scene
Shi et al. Uncooperative spacecraft pose estimation using monocular monochromatic images
Moore et al. A method for the visual estimation and control of 3-DOF attitude for UAVs
CN115880690A (zh) 一种在三维重建辅助下进行点云中物体快速标注的方法
CN109344785A (zh) 一种在深空自主光学导航中的高精度的行星中心定位方法
Kilduff et al. Crater Detection for Cislunar Autonomous Navigation through Convolutional Neural Networks
CN113313824A (zh) 一种三维语义地图构建方法
Hu et al. Toward high-quality magnetic data survey using UAV: development of a magnetic-isolated vision-based positioning system

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant