CN103699909B - 机场识别中基于局部全局特征联合决策的聚类方法 - Google Patents
机场识别中基于局部全局特征联合决策的聚类方法 Download PDFInfo
- Publication number
- CN103699909B CN103699909B CN201310644276.9A CN201310644276A CN103699909B CN 103699909 B CN103699909 B CN 103699909B CN 201310644276 A CN201310644276 A CN 201310644276A CN 103699909 B CN103699909 B CN 103699909B
- Authority
- CN
- China
- Prior art keywords
- frame
- image
- characteristic matching
- surf
- target location
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种机场识别中基于局部全局特征联合决策的聚类方法,用于解决现有基于特征目标匹配识别地图中特殊图标的方法实时性差的技术问题。技术方案是首先在第K帧启动多视角Surf特征匹配线程,特征匹配后得到与第K帧最匹配的模板图像的某个视角图像以及在第K帧的目标位置;其次,同时启动相邻两帧的Orb特征匹配线程,进行特征匹配得到相邻两帧以及从第K帧到当前帧的单应矩阵;再次,结合多视角Surf特征匹配和相邻两帧Orb特征匹配得到目标在当前帧的位置;最后,启动多视角Surf特征匹配线程进行校正。本发明弥补了特征匹配时对视角考虑不足的缺陷,而且运算时间为每帧30ms,达到了实时性的要求。
Description
技术领域
本发明属于航拍图像处理领域,特别是涉及一种机场识别中基于局部全局特征联合决策的聚类方法。
背景技术
无人机航拍目前是对地侦察的一种重要途径,自动、快速地根据已有的特定目标图像从航拍视频中快速定位识别目标,具有非常重要的意义。
文献“基于特征目标匹配识别地图中特殊图标的方法,电子测量与仪器学报,2012,Vol.26(7),p605-609”公开了一种基于特征模板匹配和聚类分析的特定目标识别算法。此方法从颜色特征着手,利用最大最小距离算法和颜色一致性聚类分析实现对特定目标的快速识别。但是,文中所述的特征提取部分是针对正视图的情况下的颜色分布进行的,当观察特定目标的视角发生变化时,该方法则失效了,针对航拍视频,观察目标的视角是可变的,该特征提取方法失效,且文中方法并没有进行时间测试。
发明内容
为了克服现有基于特征目标匹配识别地图中特殊图标的方法实时性差的不足,本发明提供一种机场识别中基于局部全局特征联合决策的聚类方法。该方法通过图像多视角Surf特征匹配确定目标位置、相邻帧间Orb特征匹配、多视角匹配与帧间匹配联合确定目标位置和累积误差的调整。首先在第K帧启动多视角Surf特征匹配线程,根据模板图像生成该模板在相机视角发生变化时的多视角图像,分别提取第K帧和模板图像及其多视角图像的Surf特征,特征匹配后得到与第K帧最匹配的模板图像的某个视角图像以及在第K帧的目标位置;其次,同时启动相邻两帧的Orb特征匹配线程,从第K帧图像开始,分别提取相邻两帧图像的Orb特征,进行特征匹配得到相邻两帧以及从第K帧到当前帧的单应矩阵;再次,结合多视角Surf特征匹配和相邻两帧Orb特征匹配得到目标在当前帧的位置;最后,当累积帧数达到需要进行校正的阈值时,启动多视角Surf特征匹配线程进行校正。本发明弥补了特征匹配时对视角考虑不足的缺陷,而且运算时间短,达到了实时性的要求。
本发明解决其技术问题所采用的技术方案是:一种机场识别中基于局部全局特征联合决策的聚类方法,其特点是包括以下步骤:
步骤一、对于模板图像,首先生成各视点的图像。已有的ASIFT算法中模拟视角变化,变换矩阵 分解为:
式中,λ>0,φ和为摄像机的视角,分别代表经度角和纬度角,ψ为摄像机的旋转角,Tt为倾斜程度。
对倾斜参数t和经度角φ进行采样,参数t按照等比数列t=1,a,a2,...,an进行采样,其中n=5,参数φ按照等差数列φ=0,b/t,...,kb/t进行采样,其中b=72,kb/t<180°。
将得到的t和φ的采样值代入下式:
式中,I为输入图像,I′(φ,t)为模拟一个视角的一个图像。
取图像序列的第K帧,进行如下操作:
①提取第K帧图像的Surf特征,Surf特征采样Henssian矩阵获取图像局部最值,在求主方向阶段依赖于局部区域像素的梯度方向;
②分别提取模板图像及其生成的各视角的图像的Surf特征;
③依次将第K帧图像与模板图像及其多视角图像进行特征匹配,匹配规则如下:
取第K帧图像一个特征点向量X与模板图像某一视角图像的所有特征点向量进行点乘,若满足点乘积最小值不大于点乘积次小值与一个阈值相乘,则接受该特征点向量X与点乘积最小的特征向量是匹配成功的。统计该视角情况下所有匹配成功的点对,点对数目大于某一阈值threshold,则认为第K帧图像与该视角模板图像匹配成功。
④当第K帧图像与模板图像的某视角图像匹配成功后,计算第K帧图像匹配成功点的最小外接矩形,即为第K帧图像中的目标位置。
步骤二、选择Orb特征作为相邻两帧之间进行匹配的特征。取前一帧图像一个特征点向量X与后一帧图像的所有特征点向量进行点乘,若满足点乘积最小值不大于点乘积次小值与一个阈值相乘,则接受该特征点向量X与点乘积最小的特征向量是匹配成功的,获得相邻两帧之间匹配成功的点对。
利用公式(3)求取相邻两帧之间的单应矩阵:
式中,p=(x,y,1)是前一帧图像上匹配成功的点的齐次坐标,q=(u,v,1)是对应在后一帧图像的点的齐次坐标。H是3×3的矩阵,其中,hi(i=1,2,3)为向量(hi1,hi2,hi3)。通过单应矩阵H,每组对应点得到以下两个方程:
所有匹配上的点对代入上面两个方程,获得单应矩阵H。
从第K帧开始启动相邻帧间Orb特征匹配线程,则从第K帧到第N帧图像的单应矩阵HKN由公式(6)得到:
HKN=HN(N-1)·H(N-1)(N-1)·…·H(K+1)K (6)
步骤三、当多视角图像Sruf特征匹配线程结束时,若未得到第K帧的目标位置,则令当前帧为第K帧,重新进行多视角Surf特征匹配和相邻帧间Orb特征匹配,直到得到第K帧的目标位置。
若得到了第K帧的目标位置,则将该目标位置与相邻帧间Orb特征匹配得到的第K帧到第N帧的单应矩阵相乘,获得当前帧的目标位置:
(xN,yN,1)T=HKN·(xK,yK,1)T (7)
式中,(xK,yK,1)T是图像多视角Surf特征匹配的结果,表示在第K帧目标位置框的四个坐标之一的齐次坐标,HKN为上一步得到的第K帧到第N帧的单应矩阵,则(xN,yN,1)T代表第N帧的目标框的四个坐标之一的齐次坐标。依次将四个坐标代入公式(7),得到第N帧的目标框。
在获得当前帧目标位置的基础上,不启动多视角Surf特征匹配线程,只进行逐帧的Orb特征匹配,利用相邻两帧之间的单应矩阵,用公式(7)不断更新目标位置,并记录累积帧数。
步骤四、当步骤三的累积帧数达到阈值,则启动多视角Surf特征匹配线程进行误差校正,用多视角Surf特征匹配与帧间匹配联合确定的目标位置替代原始目标位置。
本发明的有益效果是:该方法通过图像多视角Surf特征匹配确定目标位置、相邻帧间Orb特征匹配、多视角匹配与帧间匹配联合确定目标位置和累积误差的调整。首先在第K帧启动多视角Surf特征匹配线程,根据模板图像生成该模板在相机视角发生变化时的多视角图像,分别提取第K帧和模板图像及其多视角图像的Surf特征,特征匹配后得到与第K帧最匹配的模板图像的某个视角图像以及在第K帧的目标位置;其次,同时启动相邻两帧的Orb特征匹配线程,从第K帧图像开始,分别提取相邻两帧图像的Orb特征,进行特征匹配得到相邻两帧以及从第K帧到当前帧的单应矩阵;再次,结合多视角Surf特征匹配和相邻两帧Orb特征匹配得到目标在当前帧的位置;最后,当累积帧数达到需要进行校正的阈值时,启动多视角Surf特征匹配线程进行校正。本发明弥补了特征匹配时对视角考虑不足的缺陷,而且运算时间为每帧30ms,达到了实时性的要求。
下面结合具体实施方式对本发明作详细说明。
具体实施方式
本发明机场识别中基于局部全局特征联合决策的聚类方法具体步骤如下:
1、图像多视角Surf特征匹配确定目标位置。
对于模板图像,首先需要生成各视点的图像。已有的ASIFT算法中模拟视角变化,变换矩阵 分解为:
其中,λ>0,φ和为摄像机的视角,分别代表经度角和纬度角,ψ为摄像机的旋转角,Tt为倾斜程度。
对倾斜参数t和经度角φ进行采样,参数t按照等比数列t=1,a,a2,...,an进行采样,其中n=5,参数φ按照等差数列φ=0,b/t,...,kb/t进行采样,其中b=72,kb/t<180°。
将得到的t和φ的采样值代入下式:
I为输入图像,I′(φ,t)为模拟一个视角的一个图像。
取图像序列的第K帧,进行如下操作:
①提取第K帧图像的Surf特征,Surf特征采样Henssian矩阵获取图像局部最值,在求主方向阶段依赖于局部区域像素的梯度方向;
②分别提取模板图像及其生成的各视角的图像的Surf特征;
③依次将第K帧图像与模板图像及其多视角图像进行特征匹配,匹配规则如下:
取第K帧图像一个特征点向量X与模板图像某一视角图像的所有特征点向量进行点乘,若满足点乘积最小值不大于点乘积次小值与一个阈值相乘(0.6),则接受该特征点向量X与点乘积最小的特征向量是匹配成功的。统计该视角情况下所有匹配成功的点对,点对数目大于某一阈值threshold(threshold=60),则认为第K帧图像与该视角模板图像匹配成功。
④当第K帧图像与模板图像的某视角图像匹配成功后,计算第K帧图像匹配成功点的最小外接矩形,即为第K帧图像中的目标位置。
2、相邻帧间Orb特征匹配。
利用Orb特征的准确快速的特点,选择Orb特征作为相邻两帧之间进行匹配的特征。取前一帧图像一个特征点向量X与后一帧图像的所有特征点向量进行点乘,若满足点乘积最小值不大于点乘积次小值与一个阈值相乘(0.6),则接受该特征点向量X与点乘积最小的特征向量是匹配成功的,获得相邻两帧之间匹配成功的点对。
利用公式(3)求取相邻两帧之间的单应矩阵:
p=(x,y,1)是前一帧图像上匹配成功的点的齐次坐标,q=(u,v,1)是对应在后一帧图像的点的齐次坐标。H是3×3的矩阵,其中,hi(i=1,2,3)为向量(hi1,hi2,hi3)。通过单应矩阵H,每组对应点得到以下两个方程:
所有匹配上的点对(个数不小于5)代入上面两个方程,获得单应矩阵H。
从第K帧开始启动相邻帧间Orb特征匹配线程,则从第K帧到当前帧(第N帧)图像的单应矩阵HKN由公式(6)得到:
HKN=HN(N-1)·H(N-1)(N-1)·…·H(K+1)K (6)
3、多视角匹配与帧间匹配联合确定目标位置。
当多视角图像Sruf特征匹配线程结束时,若未得到第K帧的目标位置,则令当前帧为第K帧,重新进行多视角Surf特征匹配和相邻帧间Orb特征匹配,直到得到第K帧的目标位置。
若得到了第K帧的目标位置,则将该目标位置与相邻帧间Orb特征匹配得到的第K帧到当前帧(第N帧)的单应矩阵相乘,获得当前帧的目标位置:
(xN,yN,1)T=HKN·(xK,yK,1)T (7)
其中,(xK,yK,1)T是图像多视角Surf特征匹配的结果,表示在第K帧目标位置框的四个坐标之一的齐次坐标,HKN为上一步得到的第K帧到第N帧的单应矩阵,则(xN,yN,1)T代表当前帧(第N帧)的目标框的四个坐标之一的齐次坐标。依次将四个坐标代入公式(7),得到第N帧的目标框。
在获得当前帧目标位置的基础上,不启动多视角Surf特征匹配线程,只进行逐帧的Orb特征匹配,利用相邻两帧之间的单应矩阵,用公式(7)不断更新目标位置,并记录累积帧数。
4、累积误差的调整。
当上一步骤的累积帧数达到阈值(设置为10),则启动多视角Surf特征匹配线程进行误差校正,用多视角Surf特征匹配与帧间匹配联合确定的目标位置替代原始目标位置。
Claims (1)
1.一种机场识别中基于局部全局特征联合决策的聚类方法,其特征在于包括以下步骤:
步骤一、对于模板图像,首先生成各视点的图像;已有的ASIFT算法中模拟视角变化,变换矩阵 分解为:
式中,λ>0,φ和为摄像机的视角,分别代表经度角和纬度角,ψ为摄像机的旋转角,Tt为倾斜程度;
对倾斜参数t和经度角φ进行采样,参数t按照等比数列t=1,a,a2,...,an进行采样,其中n=5,参数φ按照等差数列φ=0,b/t,...,kb/t进行采样,其中b=72,kb/t<180°;
将得到的t和φ的采样值代入下式:
式中,I为输入图像,I′(φ,t)为模拟一个视角的一个图像;
取图像序列的第K帧,进行如下操作:
①提取第K帧图像的Surf特征,Surf特征采样Henssian矩阵获取图像局部最值,在求主方向阶段依赖于局部区域像素的梯度方向;
②分别提取模板图像及其生成的各视角的图像的Surf特征;
③依次将第K帧图像与模板图像及其多视角图像进行特征匹配,匹配规则如下:
取第K帧图像一个特征点向量X与模板图像某一视角图像的所有特征点向量进行点乘,若满足点乘积最小值不大于点乘积次小值与一个阈值相乘,则接受该特征点向量X与点乘积最小的特征向量是匹配成功的;统计该视角情况下所有匹配成功的点对,点对数目大于某一阈值threshold,则认为第K帧图像与该视角模板图像匹配成功;
④当第K帧图像与模板图像的某视角图像匹配成功后,计算第K帧图像匹配成功点的最小外接矩形,即为第K帧图像中的目标位置;
步骤二、选择Orb特征作为相邻两帧之间进行匹配的特征;取前一帧图像一个特征点向量X与后一帧图像的所有特征点向量进行点乘,若满足点乘积最小值不大于点乘积次小值与一个阈值相乘,则接受该特征点向量X与点乘积最小的特征向量是匹配成功的,获得相邻两帧之间匹配成功的点对;
利用公式(3)求取相邻两帧之间的单应矩阵:
式中,p=(x,y,1)是前一帧图像上匹配成功的点的齐次坐标,q=(u,v,1)是对应在后一帧图像的点的齐次坐标;H是3×3的矩阵,其中,hi(i=1,2,3)为向量(hi1,hi2,hi3);通过单应矩阵H,每组对应点得到以下两个方程:
所有匹配上的点对代入上面两个方程,获得单应矩阵H;
从第K帧开始启动相邻帧间Orb特征匹配线程,则从第K帧到第N帧图像的单应矩阵HKN由公式(6)得到:
HKN=HN(N-1)·H(N-1)(N-1)·…·H(K+1)K (6)
步骤三、当多视角图像Sruf特征匹配线程结束时,若未得到第K帧的目标位置,则令当前帧为第K帧,重新进行多视角Surf特征匹配和相邻帧间Orb特征匹配,直到得到第K帧的目标位置;
若得到了第K帧的目标位置,则将该目标位置与相邻帧间Orb特征匹配得到的第K帧到第N帧的单应矩阵相乘,获得当前帧的目标位置:
(xN,yN,1)T=HKN·(xK,yK,1)T (7)
式中,(xK,yK,1)T是图像多视角Surf特征匹配的结果,表示在第K帧目标位置框的四个坐标之一的齐次坐标,HKN为上一步得到的第K帧到第N帧的单应矩阵,则(xN,yN,1)T代表第N帧的目标框的四个坐标之一的齐次坐标;依次将四个坐标代入公式(7),得到第N帧的目标框;
在获得当前帧目标位置的基础上,不启动多视角Surf特征匹配线程,只进行逐帧的Orb特征匹配,利用相邻两帧之间的单应矩阵,用公式(7)不断更新目标位置,并记录累积帧数;
步骤四、当步骤三的累积帧数达到阈值,则启动多视角Surf特征匹配线程进行误差校正,用多视角Surf特征匹配与帧间匹配联合确定的目标位置替代原始目标位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310644276.9A CN103699909B (zh) | 2013-12-02 | 2013-12-02 | 机场识别中基于局部全局特征联合决策的聚类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310644276.9A CN103699909B (zh) | 2013-12-02 | 2013-12-02 | 机场识别中基于局部全局特征联合决策的聚类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103699909A CN103699909A (zh) | 2014-04-02 |
CN103699909B true CN103699909B (zh) | 2016-10-26 |
Family
ID=50361431
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310644276.9A Active CN103699909B (zh) | 2013-12-02 | 2013-12-02 | 机场识别中基于局部全局特征联合决策的聚类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103699909B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106803270A (zh) * | 2017-01-13 | 2017-06-06 | 西北工业大学深圳研究院 | 无人机平台基于单目slam的多关键帧协同地面目标定位方法 |
WO2020024211A1 (zh) * | 2018-08-02 | 2020-02-06 | 深圳市道通智能航空技术有限公司 | 无人机降落方法、装置及无人机 |
KR102628012B1 (ko) * | 2018-10-23 | 2024-01-22 | 삼성전자주식회사 | 캘리브레이션 방법 및 장치 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6122401A (en) * | 1991-03-19 | 2000-09-19 | Eastman Kodak Company | Image processing method and apparatus |
CN102385690A (zh) * | 2010-09-01 | 2012-03-21 | 汉王科技股份有限公司 | 基于视频图像的目标跟踪方法及系统 |
-
2013
- 2013-12-02 CN CN201310644276.9A patent/CN103699909B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6122401A (en) * | 1991-03-19 | 2000-09-19 | Eastman Kodak Company | Image processing method and apparatus |
CN102385690A (zh) * | 2010-09-01 | 2012-03-21 | 汉王科技股份有限公司 | 基于视频图像的目标跟踪方法及系统 |
Non-Patent Citations (3)
Title |
---|
"基于KSVD和PCA的SAR图像目标特征提取";李映,等;《吉林大学学报(工学版)》;20100930;第40卷(第5期);第1336-1339页 * |
"基于聚类分析和集成神经网络的序列图像多目标识别算法";周涛,等;《计算机科学》;20090331;第36卷(第3期);第215-219页 * |
"真实场景运动目标轨迹有效性判断与自动聚类算法研究";潘奇明,等;《计算机应用研究》;20070430;第24卷(第4期);第158-169页 * |
Also Published As
Publication number | Publication date |
---|---|
CN103699909A (zh) | 2014-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107292921B (zh) | 一种基于kinect相机的快速三维重建方法 | |
CN106373088B (zh) | 大倾斜低重叠率航空图像的快速拼接方法 | |
EP2917874B1 (en) | Cloud feature detection | |
US8872851B2 (en) | Augmenting image data based on related 3D point cloud data | |
US11042998B2 (en) | Synthetic image generation from 3D-point cloud | |
CN106023230B (zh) | 一种适合变形图像的稠密匹配方法 | |
CN110799921A (zh) | 拍摄方法、装置和无人机 | |
CN107274380B (zh) | 一种无人机多光谱影像快速拼接方法 | |
De Franchis et al. | On stereo-rectification of pushbroom images | |
CN103699909B (zh) | 机场识别中基于局部全局特征联合决策的聚类方法 | |
CN114565863B (zh) | 无人机图像的正射影像实时生成方法、装置、介质及设备 | |
US11538135B2 (en) | Automatic multi-image 3D ground control point extraction | |
CN115423863B (zh) | 相机位姿估计方法、装置及计算机可读存储介质 | |
CN114998773B (zh) | 适用于无人机系统航拍图像的特征误匹配剔除方法及系统 | |
CN108109148A (zh) | 图像立体分配方法、移动终端 | |
CN104574443A (zh) | 一种全景摄像机间运动目标的协同跟踪方法 | |
WO2020133080A1 (zh) | 物体定位方法、装置、计算机设备及存储介质 | |
CN107403448B (zh) | 代价函数生成方法和代价函数生成装置 | |
CN103646397A (zh) | 基于多源数据融合的实时合成孔径透视成像方法 | |
CN111951178B (zh) | 显著提升图像质量的图像处理方法、装置和电子设备 | |
CN110490830A (zh) | 一种农业遥感图像校正方法及系统 | |
US20190051042A1 (en) | Ceiling map building method, ceiling map building device, and ceiling map building program | |
KR101415145B1 (ko) | 항공기 탑재용 eo/ir 장비 자동임무 수행을 위한 촬영표적좌표 생성방법 | |
US10553022B2 (en) | Method of processing full motion video data for photogrammetric reconstruction | |
US20160086339A1 (en) | Method of providing cartograic information of an eletrical component in a power network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |