CN101620671B - 一种利用河道地标间接定位识别立体建筑物的方法 - Google Patents

一种利用河道地标间接定位识别立体建筑物的方法 Download PDF

Info

Publication number
CN101620671B
CN101620671B CN2009100636213A CN200910063621A CN101620671B CN 101620671 B CN101620671 B CN 101620671B CN 2009100636213 A CN2009100636213 A CN 2009100636213A CN 200910063621 A CN200910063621 A CN 200910063621A CN 101620671 B CN101620671 B CN 101620671B
Authority
CN
China
Prior art keywords
target
river course
buildings
real
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN2009100636213A
Other languages
English (en)
Other versions
CN101620671A (zh
Inventor
张天序
王登位
万美君
杨效余
汪小平
敖国庆
李成
毛麟
孙思远
郑璐璐
王曼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huazhong University of Science and Technology
Original Assignee
Huazhong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huazhong University of Science and Technology filed Critical Huazhong University of Science and Technology
Priority to CN2009100636213A priority Critical patent/CN101620671B/zh
Publication of CN101620671A publication Critical patent/CN101620671A/zh
Application granted granted Critical
Publication of CN101620671B publication Critical patent/CN101620671B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公布了一种利用河道地标间接定位识别地面立体建筑物的方法,具体为:首先捕获河道地标,再解算立体建筑物目标在实时图中的位置,接着以立体建筑物目标位置为中心,在实时图中选取局部感兴趣区,最后在局部感兴趣内区直接识别定位建筑物目标。本发明能对动平台条件下城区复杂背景中的建筑物进行间接识别定位,具有很好的鲁棒性和定位精度,可满足无人或有人飞行器在城市地区的自主精确导航、飞行器避撞等领域的应用需求。

Description

一种利用河道地标间接定位识别立体建筑物的方法
技术领域
本发明属于成像自动目标识别与导航制导交叉的技术领域,具体涉及一种动平台条件下基于河道地标的地面立体建筑物间接定位识别方法,用于飞行器前视导航时捕获与定位地面立体建筑物。
背景技术
地面立体建筑物是人工建筑的重要组成部分,对其进行精确定位与识别可满足无人飞行器和有人飞行器在城市地区的自主精确导航、飞行器避撞等领域的应用需求。地面立体建筑物通常处于复杂的自然场景之中,特别在城区,多数情况下跟其周边建筑关联成片,处于楼群之中。由于飞行器飞行航线的可变性及飞行器惯性导航定位的偏差,导致在城市地区中对地面立体建筑物的定位识别是一项困难的任务。
如果飞行器要导航定位到某立体建筑物,当然要能检测、识别该建筑物。然而在城市地区中检测识别定位立体建筑物是十分困难的。
张前进,郭雷在“基于特征学习的建筑物自动识别算法研究”,弹箭与制导学报,Vol.27 No.3 March 2007中提出了一种基于类特征学习的算法结构。利用建筑物顶部的高亮度特性,采用基于灰度的OTSU方法实现图像的粗略分割;然后采用二阶高斯马尔可夫随机场(GMRF)模型描述已分割图像,得到目标/背景类的6维特征向量;以此特征向量及粗分割的类标记为训练集,训练支持向量机(SVMs)分类器学习两类特征,再用训练过的分类器重新分割图像;最后采用基于先验知识的规则对分割区域进行建筑物/非建筑物的判定。该方法的成立基于一个明显的假设,即建筑物顶部的高亮度特性,这一假设在实际的建筑物光学成像中是不能保证的,因此,其适用范围有限。陶文兵,柳健,田金文在“一种新型的航空图像城区建筑物自动提取方法”,计算机学报,Vol.26 No.7 July 2003中提出了一种从航空城区图像中自动提取矩形建筑物的方法,该方法基于从航空城区图像中提取的边缘,经过轮廓跟踪,采用Splitting(分裂)方法提取直线,得出其相应的直线几何图形。但在使用该方法时,边缘信息的初始检测结果多为不连续的线段,因此需要对结果进行合并、调整等处理。当面对较为复杂的自然场景图像时,会产生大量不连续的线段,使得合并、调整处理的计算复杂度大幅度增加,从而难以满足实时性的要求。金泰松,叶聪颖,李翠华,刘明业在“一种复杂场景下建筑目标识别方法”,计算机工程,Vol.33 No.6 March 2007中提出了一种基于建筑目标的竖直线特征寻找图像中存在建筑目标区域的方法,考虑了目标特征的相互关系,给出了一种新的模板匹配算法,跟传统的方法相比,运行时间减少了。但是该方法在目标跟背景之间的局部反差不明显的情况下,竖直线条的提取将变得极为困难。
以上方法都是直接检测识别定位立体建筑物,没有将建筑物目标置于自然场景的“上下文”之中,因此,难免局限于就建筑物识别定位而谈建筑物识别定位。当立体建筑物相对于其所在城市地区场景特征不显著,如距离较远、光照条件不好、相似模式较多时,直接检测定位识别是不可行的。为了解决这一导航定位难题,必须发明新的定位识别方法。
实际上,间接寻找目标的方法更符合人类的视觉导航机理,也就是说,当我们在意图捕获一个目标的时候,如果此目标相对于其所在的场景特征不显著时,我们通常采取先捕获目标所在场景中具有某种显著性特征的地物结构,再间接定位到我们感兴趣的目标,进而达到对感兴趣对象的直接定位与识别。
穿越城区的河道地标在许多城市中是常见的,而且河道地标具有条带状分布的特征,蜿蜒曲折的居多,其上可供选择使用的形殊点很多,利用河道地标间接导航定位是可行的。如何利用河道地标进行城区内立体建筑物的检测定位,构成了本发明的核心内容。
发明内容
本发明提供一种利用河道地标间接定位识别地面立体建筑物的方法,目的在于解决动平台条件下,待识别建筑物光学成像特征不显著时,如被隐藏、被遮挡、建筑物模式重复较多、光学成像中建筑物局部对比度差等的多种情况下,对城区立体建筑物的定位识别问题,为飞行器前视导航时捕获与定位地面立体建筑物提供支持。
一种利用河道地标间接定位识别立体建筑物的方法,按照以下步骤进行:
(1)计算河道地标与立体建筑物在参考图中的位置差异;
(2)在实时图中确定建筑物目标的局部感兴趣区域:
(2.1)确定河道地标在实时图中的位置;
(2.2)利用步骤(1)的位置差异以及步骤(2.1)的河道地标位置解算立体建筑物目标在实时图中的位置;
(2.3)在实时图中选取局部感兴趣区域,该区域以立体建筑物目标在实时图中的位置为中心,局部感兴趣区域的高度Hsub=Himg×ξ,Himg表示建筑物目标成像高度,1.5≤ξ≤3;局部感兴趣区域的宽度Wsub=Wimg×γ,Wimg表示建筑物目标成像宽度,2≤γ≤6;
(3)以局部感兴趣区域为处理对象识别立体建筑物目标。
本发明的技术效果体现在:目前前视成像导航技术广泛应用在飞行器导航中,它主要是通过光学传感器的前视成像目标识别来纠偏,但一般的前视目标识别导航方法都是采取直接识别目标来纠正实际飞行航路与规划航路的偏差,这在待识别建筑物光学成像特征不显著时,如被隐藏、被遮挡、建筑物相似模式较多、光学成像中建筑物局部对比度差等的多种情况下,直接识别定位立体建筑物是不可靠的。实际上,迂回寻找目标的方法更符合人类的视觉导航机理,也就是说,当我们在意图捕获一个目标的时候,如果此目标相对于其所在的场景特征不显著时,我们通常采取先捕获目标所在场景中具有某种显著性特征的地物结构,再间接定位到我们感兴趣的目标,从而达到对感兴趣对象的间接定位与识别。河道地标在城区中是很多的,而且河道地标具有条带状分布的特征,蜿蜒曲直的居多,其上可供选择使用的形殊点很多。如何利用河道地标进行城区内立体建筑物的检测定位,构成了本发明所的关键点。本发明通过对河道地标的定位来找到河道地标的角偏差,再根据此河道地标的偏移量,反推建筑物目标的角偏差,从而达到对飞行器在飞行过程中不断纠偏,并最终导航定位到预定建筑物目标的目的。本发明对动平台条件下城区复杂背景中的建筑物进行间接识别定位,具有很好的鲁棒性和定位精度,可满足无人或有人飞行器在城市地区的自主精确导航、飞行器避撞等领域的应用需求。
附图说明
图1为本发明总体流程图;
图2为通过河道地标间接定位到包含建筑物的感兴趣区流程图;
图3为感兴趣区内直接识别定位流程图;
图4为透视变换模型图;
图5为大地坐标系下河道地标形殊点与建筑物形殊点之间的空间约束关系示意图;
图6为实时图中心与地标的相对位置关系图;
图7为光轴瞄准点T0与地标在飞行方向纵轴上的投影M之间的位置关系图;
图8为光轴瞄准点T0与地标在飞行方向横轴上的投影N之间的位置关系;
图9为正北方向与飞行方向示意图;
图10为大地坐标系中光轴与目标纵向位置关系图;
图11为大地坐标系中光轴与目标横向位置关系图;
图12为飞行方向示意图;
图13为包含某建筑物,河道,陆地的卫星遥感图;
图14为河道地标参考图及河道地标形殊点与建筑物正投影形心的位置关系图;
图15为河道地标的形殊点集LSP1,1、LSP1,2、LSP1,3、LSP1,4与左右两栋建筑物正投影的形心T1和T2之间的空间约束关系;
图16为某成像姿态参数下的光学实时图像;
图17为分别以图13中的4个形殊点LSP1,1、LSP1,2、LSP1,3、LSP1,4为光轴瞄准点时的匹配结果;
图18为图17中result1-result4的平均结果图;
图19为间接定位结果图;
图20为包含建筑物的局部感兴趣区子图;
图21为对图20形态学背景抑制后的结果图;
图22为对图21灰度级合并后的结果图;
图23为对图22自适应递推分割后的结果图;
图24为感兴趣区内竖直线条检测结果图;
图25为最终的建筑物识别结果图。
具体实施方式
在足够的飞行高度和一个恰当的飞行角度下,河道地标的可见性是可以保证的,因而,本发明是在河道地标可见的情况下来考虑的。
下面以图12包含某立体建筑物、河道、陆地的卫星遥感图为例对本发明作进一步详细的说明。总体流程图如图1所示。
1、地面准备
(1.1)按照预先规划好的航迹进入方向,选择航路上可见的河道地标候选集,为可靠起见,通常选择待识别建筑物近邻区的河道地标。图12和图13为河道地标近邻区2000米×2000米范围的卫星遥感图,在图12中还标注出了获取前视光学图像时的飞行方向;
(1.2)建立河道地标及待识别建筑物的几何基准特征库,同时在卫星遥感图片中建立各河道地标与待识别建筑物之间的空间约束关系特征库。
①河道地标的几何特征库:在河道地标的参考图上,选取河道分叉区域作为我们的局部感兴趣区,并将该区域取为经验值大小300像素高300像素宽,在此子区内,选取四个点作为形殊点,第一点为该子区的形心,其坐标为(1050,720),记为LSP1,1;第二点为左边一段弧线状河岸线的曲率最大点,其坐标为(998,687),记为LSP1,2;第三点为右上角一段弧线状河岸线的曲率最大点,其坐标为(1095,689),记为LSP1,3;第四点为右下角一段弧线状河岸线的曲率最大点,其坐标为(1071,779),记为LSP1,4。在图13中以一组实心的圆点加以标注,该组点即为后面透视变换时光轴瞄准点可能的偏差点。
②待识别建筑物的几何基准特征库:高度THi为65米、宽度TWi为25米、周长TPi为180米、面积TAi为1625平方米、形状因子TSi为1.587,i=1,2分别表示左右两栋建筑物;
③卫星遥感图片中河道地标与待识别建筑物之间的空间约束关系特征库:河道地标和待识别建筑物之间的空间约束关系包括:①河道地标形殊点与建筑物正投影的形心之间的约束关系Δq,j,k 11xq,j,k,Δ1yq,j,k), Δ 1 x q , j , k = x T q - x LSP j , k , Δ 1 y q , j , k = y T q - y LSP j , k , q=1,2,3...,j=1,2,3...,k=1,2,3...,
Figure G2009100636213D00063
为第q个建筑物正投影的形心坐标,
Figure G2009100636213D00064
为第j个河道地标的第k个形殊点坐标;②河道地标形殊点与建筑物可见表面的形心之间的约束关系Δq,m,j,k 22xq,m,j,k,Δ2yq,m,j,k), Δ 2 x q , m , j , k = x S T q , m - x LSP j , k , Δ 2 y q , m , j , k = y S T q , m - y LSP j , k , m=1,2,3...,
Figure G2009100636213D00067
为第q个建筑物可见表面的第m个形心坐标,
Figure G2009100636213D00068
为第j个河道地标的第k个形殊点坐标;③河道地标形殊点与建筑物可见表面的角点之间的约束关系Δq,r,j,k 33xq,r,j,k,Δ3yq,r,j,k), Δ 3 x q , r , j , k = x C T q , r - x LSP j , k , Δ 2 y q , r , j , k = y C T q , r - y LSP j , k , q=1,2,3...,r=1,2,3...,
Figure G2009100636213D000611
为第q个建筑物可见表面的第r个角点坐标,
Figure G2009100636213D00071
为第j个河道地标的第k个形殊点坐标。以一栋建筑物与一个河道地标为例时的示意图如图5所示,包括:河道地标形殊点与建筑物正投影的形心之间的约束关系Δ1,1,1 1、河道地标形殊点与建筑物可见表面的形心之间的约束关系Δ1,1,1,1 2与Δ1,2,1,1 2,其中,oxyz表示大地坐标系,o′x′y′z′表示建筑物坐标系。
在本实例中,待识别建筑物(左边一栋)正投影的形心T1为(927,949)、待识别建筑物(右边一栋)正投影的形心T2为(985,1008)、建筑物正投影的形心与河道地标形殊点之间的空间约束关系集为(用x坐标及y坐标来描述):{Δ1,1,1 1(-123,229)、Δ1,1,2 1(-71,262)、Δ1,1,3 1(-168,260)、Δ1,1,4 1(-144,170);Δ2,1,1 1(-65,288)、Δ2,1,2 1(-13,321)、Δ2,1,3 1(-110,319)、Δ2,1,4 1(-86,229)},如图15所示;
(1.3)制备河道地标的参考图。前面已经讲过,在制备参考图时,需要根据地标本身的光学特性对其赋予不同的灰度值,以此为指导,制备出此河道地标的参考图如图14所示,在图14上再次标注图13中已经标注过的6个点;
2、定位阶段I:包含建筑物的局部感兴趣区定位
(2.1)飞行器沿规划的航迹飞行,搜索距离当前时刻最近的河道地标,按预计当其出现在视场中时刻,启动对河道地标的捕获;
(2.2)根据捕获河道地标时的飞行器成像姿态参数,将前述制备好的河道地标参考图透视变换到前视状态。
透视变换的几何模型图如图4所示,设T0(x0,y0)为光轴所在点,
Figure G2009100636213D00072
为地面上的某个点,则在光电成像传感器所获取到的前视图像中T0的像素点位置为(COL/2,ROW/2),设T1在前视图像中的像素点位置为(T1_COL,T1_ROW),则计算T1_COL和T1_ROW的过程如下:
OT0=h/tanθ
OM = OT 0 + ( y ^ 1 - y 0 ) × cos α + ( x ^ 1 - x 0 ) × sin α
tan(∠OMP)=h/OM
T1_ROW=ROW/2+(∠OMP-θ)*ROW/φ
其中,OT0为T0(光轴的触地点)点到O点(观察视点在地面上的垂直投影)的距离,点M为点朝光轴纵向投影时与OT0的交点,h为观察视点P的高度,α为方位角,θ为俯仰角,φ为摄像机纵向视场角,
Figure G2009100636213D00084
为摄像机横向视场角。
本实例在透视变换时,光轴的瞄准点分别为图14中的LSP1,1、LSP1,2、LSP1,3和LSP1,4。当光轴的瞄准点为LSP1,1时,透视变换后的特征模板大小为宽44像素高71像素,如图17(a1)所示,同实时图(如图16所示)匹配后的结果如图17(b1)所示,其中十字叉在宽度为320像素高度为256像素的图像平面上的坐标为(204,139),以result1表示;当光轴的瞄准点为LSP1,2时,透视变换后的特征模板大小为宽44像素高71像素,如图17(a2)所示,同实时图匹配后的结果如图17(b2)所示,其中十字叉在宽度为320像素高度为256像素的图像平面上的坐标为(196,137),以result2表示;当光轴的瞄准点为LSP1,3时,透视变换后的特征模板大小为宽44像素高71像素,如图17(a3)所示,同实时图匹配后的结果如图17(b3)所示,其中十字叉在宽度为320像素高度为256像素的图像平面上的坐标为(200,145),以result3表示;当光轴的瞄准点为LSP1,4时,透视变换后的特征模板大小为宽44像素高71像素,如图17(a4)所示,同实时图匹配后的结果如图17(b4)所示,其中十字叉在宽度为320像素高度为256像素的图像平面上的坐标为(190,139),以result4表示。令result=(result1+result2+result3+result4)/4,则result表示匹配后的平均位置,其值为(197,140),如图18所示,此像素坐标即为后续间接定位感兴趣区时的依据。相比于采用单个光轴瞄准点,本发明的匹配结果在时间序列上的稳定性增加了很多。
在匹配时,我们采用的是去均值归一化的灰度互相关匹配算法,其原理为:
设参考图为Gr,其大小为Mr×Nr,实时图为Gs,其大小为Ms×Ns,且Ms<Mr,Ns<Nr。则参考图中以(u,v)为左上角、大小为Ms×Ns的子图Gr(u,v)与实时图Gs间的去均值归一化互相关度量ρ(u,v)为:
ρ ( u , v ) = Σ i = 1 M s Σ j = 1 N s [ G r ( i + u , j + v ) - G r ( u , v ) ‾ ] × [ G s ( i , j ) - G s ‾ ] Σ i = 1 M s Σ j = 1 N s [ G r ( i + u , j + v ) - G r ( u , v ) ‾ ] 2 Σ i = 1 M s Σ j = 1 N s [ G r ( i , j ) - G s ‾ ] 2
其中Gr(u,v)与Gs分别为Gr(u,v)与Gs的灰度均值。由ρ(u,v)构成的相关系数矩阵称为相关面。再从计算出的匹配相关面数据ρ(u,v)中选取出极值点即可得到匹配定位点,在此可以发现,互相关匹配算法的运算量主要集中在相关面数据ρ(u,v)的计算上。
在实时性要求较高的情形下,除了保证计算结果的精确性之外,以存储空间换取计算时间也是一种十分有效的途径。将上述给出的归一化去均值互相关匹配度量转化为:
ρ ( u , v ) = Σ i = 1 M s Σ j = 1 N s [ G r ( i + u , j + v ) × G s ( i , j ) ] - M s N s G r ( u , v ) ‾ × G s ‾ Σ i = 1 M s Σ j = 1 N s G r ( i + u , j + v ) 2 - M s N s G r ( u , v ) ‾ 2 Σ i = 1 M s Σ j = 1 N s G s ( i , j ) 2 - M s N s G s ‾ 2
其中,实时图Gs的均值Gs和平方和项只需计算一次,参考图子图Gr(u,v)的均值Gr(u,v)和标准差 Σ i = 1 M s Σ j = 1 N s G r ( i + u , j + v ) 2 - M s N s G r ( u , v ) ‾ 2 可以预先计算并载入外部存储器,这样相关匹配算法的计算消耗主要集中在 Σ j = 1 N s [ G r ( i + u , j + v ) × G s ( i , j ) ] 的计算上,即参考子图Gr(u,v)与实时图Gs之间的二维点积计算。
通过匹配确定河道地标在实时图上的位置的详细流程图如图2所示。
(2.3)确定建筑物目标在实时图中的位置。
河道地标间接定位的具体算法实现步骤为:
假定通过匹配定位后,地标在实时图上的位置为(X2,Y2),它与实时图中心的位置关系示意图如图6所示。令ROW为实时图行数,COL为实时图列数,则实时图中心的坐标为(ROW/2,COL/2)。令φ为纵向视场角,
Figure G2009100636213D00104
为横向视场角,α为方位角,θ为俯仰角,h为视点P的高度,如图4所示。
(2.3.1)计算(X2,Y2)与光轴瞄准点在大地坐标系下沿进入方向的偏移量L1,L2
①纵向距离L1
如图7,令MT0=L1,则
β 1 = Y 2 - ROW / 2 ROW × φ
L 1 = h tan ( θ - β 1 ) - h tan θ
②横向距离L2
如图8,令T0N=L2,则
Figure G2009100636213D00111
L 2 = h sin ( θ - β 1 ) × tan β 2
(2.3.2)由L1,L2计算在正北方向上的投影量dx2,dy2
如图9,令CD=L1,DE=L2,则∠EDG=α,CF=dx2,FE=dy2,则
dx2=L2cosα+L1sinα
dy2=L1cosα-L2sinα
由于在大地坐标系下,地标的位置是已知的,因此,由上述计算出的dx2,dy2即可得到光轴瞄准点在大地坐标系中的位置,而光轴瞄准点与目标在大地坐标系下的位置偏移量dx1,dy1是已知的,但此偏移数量是相对于是正北方向的,需要转化为相对于是飞行方向的偏移量dx′1,dy′1
再次采用图9,令CD=dy′1,DE=dx′1,∠EDG=α,CF=dx1,FE=dy1,求解方程
dx 1 = dx 1 ′ cos α + dy 1 ′ sin α dy 1 = dy 1 ′ cos α - dx 1 ′ sin α
dx′1=dx1cosα-dy1sinα
dy′1=dy1cosα+dx1sinα
(2.3.3)计算目标在实时图中的最终位置(X1,Y1)
①计算Y1
如图10,令T0K=L′1,L′1=dy′1,则
tan β 3 = h h / tan θ + L 1 ′
β 3 = a tan h h / tan θ + L 1 ′
β′1=θ-β3
Y 1 = ROW 2 + β 1 ′ - θ φ × ROW
d′=h/sinβ3
②计算X1
如图11,令KW=dx′1,则
β 2 ′ = a tan dx 1 ′ d ′
Figure G2009100636213D00124
至此,即得到了目标在实时图中的位置(X1,Y1)。
本实例中,令步骤(1.2)中的四个河道地标形殊点的平均位置为LSP,则LSP=(LSP1,1+LSP1,2+LSP1,3+LSP1,4)/4,其值为(1053,718),另外,左边一栋建筑物在参考图中的正投影T1为(927,949),河道地标形殊点在实时图中的平均位置result为(197,140),利用LSP和T1之间的位置约束关系Δ1,1,1 1(-126,231),基于LSP、Δ1,1,1 1和result得到T1间接定位后的位置坐标为(145,103),如图19中左边的十字叉所示;再利用LSP和T2之间的位置约束关系Δ2,1,1 1(-68,273),基于LSP、Δ2,1,1 1和result得到T2间接定位后的位置坐标为(152,109),如图19中右边的十字叉所示。对(145,103)和(152,109)两点求平均后得到位置(148,106),。
(2.4)在实时图中,由前述确定局部感兴趣区域大小的经验公式得宽度为48像素高度为60像素的子图,该子图以(148,106)为中心,如图20所示,该子图即为通过本发明的间接定位思想所得到的包含建筑物的局部感兴趣区,最后的直接定位操作就是在此子区内进行的。
3、定位阶段II:局部感兴趣内区直接识别定位
当局部感兴趣区内反差显著时,在局部感兴趣区内进行基于形态学的建筑物目标识别,其流程图如图3所示,最终完成对建筑物的识别定位,否则,继续进行间接定位操作。
(3.1)形态学背景抑制,根据包含建筑物的局部感兴趣区子图20所对应的姿态参数,即俯仰角θ、方位角α、成像高度h,计算得到此时的建筑物成像大小为高31像素宽12像素,在进行形态学背景抑制时,为保证建筑物目标不被抑制掉,实际采用的形态学结构元素应略小于建筑物的实际成像大小。确定形态学结构元素大小的经验公式为:SH=Himg×μ,SH为形态学结构元素高度,Himg表示建筑物成像宽度,μ的典型值为0.8;SW=Wimg×η,SW为形态学结构元素高度,Wimg表示建筑物成像宽度,η的典型值为0.8。在本实施例中,用此公式计算后得形态学结构元素为高24像素宽9像素。形态学背景抑制后的结果如图21所示;
(3.2)灰度级合并,对形态学背景抑制后的图21进行灰度级合并,以减少图像的灰度级。灰度级合并后的结果如图22所示;
(3.3)递推分割,对灰度级合并后的图22,将其灰度级从高到低作为分割门限,进行递推分割,图23为第一次递推分割后的二值图,此时已分割出我们所需要的建筑物目标,因此,递推分割过程不再往下进行;
(3.4)感兴趣区特征提取,提取图23中两个感兴趣区的特征量,其中右边一个感兴趣区的特征量为:面积(372像素)、重心(34,39)、周长(78像素)、高度(29像素)、宽度(13像素);左边一个感兴趣区的特征量为:面积(250像素)、重心(14,41)、周长(66像素)、高度(25像素)、宽度(10像素);
(3.5)特征匹配,本实施例建筑物基准特征库中各特征量分别为:面积(372像素)、周长(86像素)、高度(31像素)、宽度(12像素),将图15中两个感兴趣区的特征量同此建筑物基准特征库进行比较,以确定各特征量之间的相对误差量,比较后得右边一个感兴趣区各特征量之间的相对误差如下:面积误差(0像素)、周长误差(-8像素)、高度误差(-2像素)、宽度误差(1像素)、总误差(-5像素),分析此结果得知,此总误差的绝对值在建筑物特征库中允许的总误差(282像素)范围之内,因此,右边的感兴趣区匹配成功;左边一个感兴趣区各特征量之间的相对误差如下:面积误差(-122像素)、周长误差(-20像素)、高度误差(-6像素)、宽度误差(-2像素)、总误差(-150像素),分析此结果得知,此总误差的绝对值在建筑物特征库中允许的总误差(282像素)范围之内,因此,左边的感兴趣区匹配成功。
(3.6)感兴趣区竖条验证,为提高识别结果的可靠性,对上述特征匹配后保留下来的两个感兴趣区回到原图进行竖直线条验证,若竖直线条数大于或等于1,则验证成功,保留该感兴趣区域。线条提取时采用的两个线模板如下:
其中垂直线模板为:
- 1 4 - 1 - 1 4 - 1 - 1 4 - 1 - 1 4 - 1 - 1 4 - 1
其中水平线模板为:
- 1 - 1 - 1 - 1 - 1 4 4 4 4 4 - 1 - 1 - 1 - 1 - 1
竖直线条提取后的结果如图24(a)和图24(b)所示。
(3.7)感兴趣区竖条验证,在竖直线条数大于或等于1的前提下,寻找局部对比度最大的感兴趣区作为最终的特征匹配结果,至此即得到了最终的识别结果,转换到实时图坐标系后的最终识别结果如图25所示,至此即完成整个的建筑物识别任务。

Claims (2)

1.利用河道地标间接定位识别立体建筑物的方法,按照以下步骤进行:
(1)地面准备
(1.1)在规划好的航路上选择可见的河道地标;
(1.2)建立河道地标及立体建筑物目标的几何基准特征库,同时在卫星遥感图片中建立河道地标与立体建筑物目标之间的空间约束关系特征库;
(1.3)根据地标的光学成像特性制备出河道地标的参考图;
(2)在实时图中确定包含建筑物目标的局部感兴趣区域:
(2.1)确定河道地标在实时图中的位置;
(2.1.1)飞行器沿规划好的航路飞行,当河道地标按预计出现在视场中时,启动对河道地标的捕获;
(2.1.2)依据捕获启动时的成像姿态参数,将河道地标的参考图透视变换到前视状态,生成用于匹配的特征模板;
(2.1.3)将特征模板与实时图进行匹配操作,以确定河道地标在实时图中的位置;
(2.2)确定立体建筑物目标在实时图中的位置:
(2.2.1)计算河道地标在实时图中的位置(X2,Y2)与成像仪光轴瞄准点在大地坐标系下沿飞行方向的横向偏移量L1和纵向偏移量L2
L 1 = h tan ( θ - β 1 ) - h tan θ β 1 = Y 2 - ROW / 2 ROW × φ
L 2 = h sin ( θ - β 1 ) × tan β 2
Figure FDA0000122358990000022
其中φ为纵向视场角,
Figure FDA0000122358990000023
为横向视场角,α为方位角,θ为俯仰角,h为成像高度,ROW为实时图行数,COL为实时图列数;
(2.2.2)分别计算偏移量L1,L2在正北方向上的投影量dx2,dy2
dx2=L2cosα+L1sinα,dy2=L1cosα-L2sinα;
(2.2.3)将光轴瞄准点与目标在大地坐标系下的位置偏移量dx1,dy1转换为相对于飞行方向的偏移量dx′1,dy′1
dx′1=dx1cosα-dy1sinα,dy′1=dy1cosα+dx1sinα;
(2.2.4)计算目标在实时图的位置(X1,Y1)
Figure FDA0000122358990000024
Y 1 = ROW 2 + β 1 ′ - θ φ × ROW ,
β 2 ′ = a tan d x 1 ′ d ′ ,d′=h/sinβ3 β 3 = a tan h h / tan θ + dy 1 ′ ,β′1=θ-β3
(2.3)在实时图中选取局部感兴趣区域,该区域以步骤(2.2.3)确定的立体建筑物目标在实时图中的位置(X1,Y1)为中心,局部感兴趣区域的高度Hsub=Himg×ξ,Himg表示建筑物目标成像高度,1.5≤ξ≤3;局部感兴趣区域的宽度Wsub=Wimg×γ,Wimg表示建筑物目标成像宽度,2≤γ≤6;
(3)以局部感兴趣区域为处理对象识别立体建筑物目标;
(3.1)对局部感兴趣区域作形态学背景抑制以突出立体建筑物目标;
(3.2)对形态学背景抑制后的局部感兴趣区域作灰度级合并;
(3.3)对灰度级合并后的局部感兴趣区域进行递推分割,得到可能包含立体建筑物目标的感兴趣子区;
(3.4)将各感兴趣子区的特征量与建筑物的基准特征库进行特征匹配,并保留匹配成功的感兴趣子区;
(3.5)对匹配成功的感兴趣子区进行竖直线条和局部对比度验证,最终确定立体建筑物目标所在的感兴趣子区,该感兴趣子区的形心即标的位置。
2.根据权利要求1所述的利用河道地标间接定位识别立体建筑物的方法,其特征在于,所述步骤(2.1)在确定河道地标在实时图中的位置时,首先要对参考图作透视变换,具体方式为:
令T0(x0,y0)为成像仪光轴瞄准点,
Figure FDA0000122358990000031
为参考图上的任意一点,则在实时图中T0的位置为(COL/2,ROW/2),设
Figure FDA0000122358990000032
在实时图中的位置为(T1_COL,T1_ROW),则计算T1_COL和T1_ROW的过程如下:
OT0=h/tanθ
OM = OT 0 + ( y ^ 1 - y 0 ) × cos α + ( x ^ 1 - x 0 ) × sin α
tan(∠OMP)=h/OM
T1_ROW=ROW/2+(∠OMP-θ)*ROW/φ
其中,h为成像高度,α为方位角,θ为俯仰角,φ为摄像机纵向视场角,为摄像机横向视场角,M为
Figure FDA0000122358990000036
点朝光轴纵向投影时与OT0的交点,OT0为T0点到观察视点在地面上的垂直投影点O点的距离,P为观察视点。
CN2009100636213A 2009-08-14 2009-08-14 一种利用河道地标间接定位识别立体建筑物的方法 Active CN101620671B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2009100636213A CN101620671B (zh) 2009-08-14 2009-08-14 一种利用河道地标间接定位识别立体建筑物的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2009100636213A CN101620671B (zh) 2009-08-14 2009-08-14 一种利用河道地标间接定位识别立体建筑物的方法

Publications (2)

Publication Number Publication Date
CN101620671A CN101620671A (zh) 2010-01-06
CN101620671B true CN101620671B (zh) 2012-05-09

Family

ID=41513899

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2009100636213A Active CN101620671B (zh) 2009-08-14 2009-08-14 一种利用河道地标间接定位识别立体建筑物的方法

Country Status (1)

Country Link
CN (1) CN101620671B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201437925A (zh) 2012-12-28 2014-10-01 Nec Corp 物體識別裝置、方法及電腦程式產品
CN103473787B (zh) * 2013-07-29 2015-08-26 华中科技大学 一种基于空间几何关系的桥梁上运动目标检测方法
CN103699883B (zh) * 2013-12-17 2016-04-13 华中科技大学 一种利用村落地标群识别定位建筑物的方法
CN103793884B (zh) * 2013-12-31 2015-10-21 华中科技大学 一种知识约束的桥梁目标图像气动光学效应校正方法
CN104374386B (zh) * 2014-11-03 2016-05-25 中国科学院光电研究院 一种基于线性地标的定位方法
CN105044754A (zh) * 2015-07-01 2015-11-11 西安交通大学 一种基于多传感器融合的移动平台室外定位方法
CN108253940B (zh) 2016-12-29 2020-09-22 东莞前沿技术研究院 定位方法及装置
CN107784624B (zh) * 2017-09-28 2020-12-04 北京华航无线电测量研究所 一种匹配区图像的制作方法
CN107945215B (zh) * 2017-12-14 2021-07-23 湖南华南光电(集团)有限责任公司 高精度红外图像跟踪器及一种目标快速跟踪方法
CN108764136B (zh) * 2018-05-29 2021-06-25 长春工程学院 一种在高分辨率遥感影像中识别建筑物的方法
CN110716239B (zh) * 2018-07-11 2022-02-22 中石化石油工程技术服务有限公司 一种基于电成像的测井砂砾岩体岩性精细评价方法
CN109358315B (zh) * 2018-10-12 2020-08-18 华中科技大学 一种辅助目标间接定位方法及系统
CN111553425B (zh) * 2020-04-29 2023-04-25 广州大学 一种用于视觉定位的模板匹配lsp算法、介质和设备
CN113804100B (zh) * 2020-06-11 2023-02-10 华为技术有限公司 确定目标对象的空间坐标的方法、装置、设备和存储介质

Also Published As

Publication number Publication date
CN101620671A (zh) 2010-01-06

Similar Documents

Publication Publication Date Title
CN101620671B (zh) 一种利用河道地标间接定位识别立体建筑物的方法
CN103149939B (zh) 一种基于视觉的无人机动态目标跟踪与定位方法
CN106407315B (zh) 一种基于街景图像数据库的车辆自主定位方法
CN101532841B (zh) 基于地标捕获跟踪的飞行器导航定位方法
CN103714541B (zh) 一种利用山体轮廓区域约束识别定位建筑物的方法
CN101509782B (zh) 一种小型地标捕获定位方法
CN111968128B (zh) 一种基于图像标记的无人机视觉姿态和位置解算方法
CN104536009A (zh) 一种激光红外复合的地面建筑物识别及导航方法
CN105021184A (zh) 一种用于移动平台下视觉着舰导航的位姿估计系统及方法
CN106054929A (zh) 一种基于光流的无人机自动降落引导方法
Chen et al. Vision-based autonomous vehicle guidance for indoor security patrolling by a SIFT-based vehicle-localization technique
CN101620672B (zh) 一种利用立体地标定位识别地面立体建筑物的方法
Cao et al. Camera to map alignment for accurate low-cost lane-level scene interpretation
EP2166375A2 (en) System and method of extracting plane features
Coutard et al. Visual detection and 3D model-based tracking for landing on an aircraft carrier
Wang et al. Flag: Feature-based localization between air and ground
CN102788580A (zh) 无人机视觉导航中的飞行路线合成方法
CN102128623A (zh) 一种星敏感器快速星图识别方法
Dumble et al. Airborne vision-aided navigation using road intersection features
CN109358315B (zh) 一种辅助目标间接定位方法及系统
CN109612333A (zh) 一种面向可重复使用火箭垂直回收的视觉辅助导引系统
CN115867939A (zh) 用于空中到地面配准的系统和方法
CN103456027B (zh) 一种机场空间关系约束下的时敏目标检测定位方法
CN104567879A (zh) 一种组合视场导航敏感器地心方向提取方法
CN113221883B (zh) 无人机飞行导航路线实时修正方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant