CN102004922A - 基于骨架特征的高分辨率遥感影像飞机提取方法 - Google Patents
基于骨架特征的高分辨率遥感影像飞机提取方法 Download PDFInfo
- Publication number
- CN102004922A CN102004922A CN201010566913.1A CN201010566913A CN102004922A CN 102004922 A CN102004922 A CN 102004922A CN 201010566913 A CN201010566913 A CN 201010566913A CN 102004922 A CN102004922 A CN 102004922A
- Authority
- CN
- China
- Prior art keywords
- target
- aircraft
- skeleton
- edge
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 43
- 238000000034 method Methods 0.000 claims abstract description 110
- 239000013598 vector Substances 0.000 claims abstract description 73
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 50
- 238000003708 edge detection Methods 0.000 claims abstract description 35
- 238000004458 analytical method Methods 0.000 claims abstract description 23
- 238000009432 framing Methods 0.000 claims description 45
- 238000011160 research Methods 0.000 claims description 36
- 238000012549 training Methods 0.000 claims description 34
- 239000000284 extract Substances 0.000 claims description 31
- 238000013139 quantization Methods 0.000 claims description 26
- VMXUWOKSQNHOCA-UKTHLTGXSA-N ranitidine Chemical compound [O-][N+](=O)\C=C(/NC)NCCSCC1=CC=C(CN(C)C)O1 VMXUWOKSQNHOCA-UKTHLTGXSA-N 0.000 claims description 23
- 238000013528 artificial neural network Methods 0.000 claims description 22
- 238000001514 detection method Methods 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 15
- 230000001537 neural effect Effects 0.000 claims description 10
- 238000013461 design Methods 0.000 claims description 7
- 210000000988 bone and bone Anatomy 0.000 claims description 5
- 230000000007 visual effect Effects 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 4
- 238000007689 inspection Methods 0.000 claims description 3
- 208000030984 MIRAGE syndrome Diseases 0.000 claims description 2
- 238000003062 neural network model Methods 0.000 claims description 2
- TVLSRXXIMLFWEO-UHFFFAOYSA-N prochloraz Chemical compound C1=CN=CN1C(=O)N(CCC)CCOC1=C(Cl)C=C(Cl)C=C1Cl TVLSRXXIMLFWEO-UHFFFAOYSA-N 0.000 claims description 2
- 238000012216 screening Methods 0.000 claims description 2
- 241000272470 Circus Species 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 6
- 239000010410 layer Substances 0.000 description 21
- 230000008569 process Effects 0.000 description 16
- 238000007906 compression Methods 0.000 description 12
- 230000006835 compression Effects 0.000 description 12
- 210000002569 neuron Anatomy 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 6
- 239000000203 mixture Substances 0.000 description 6
- 230000000877 morphologic effect Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000012360 testing method Methods 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000000052 comparative effect Effects 0.000 description 4
- 239000012141 concentrate Substances 0.000 description 4
- 238000010276 construction Methods 0.000 description 4
- 238000004088 simulation Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 238000007630 basic procedure Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 230000010076 replication Effects 0.000 description 2
- 239000002699 waste material Substances 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000010205 computational analysis Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010219 correlation analysis Methods 0.000 description 1
- 238000013211 curve analysis Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000003628 erosive effect Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 238000006062 fragmentation reaction Methods 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000002386 leaching Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 238000005211 surface analysis Methods 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 238000010937 topological data analysis Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了基于骨架特征的高分辨率遥感影像飞机提取方法。其包括以下步骤:选择基于嵌入置信度的遥感影像边缘检测算法进行边缘检测,实现基于嵌入置信度的遥感影像边缘检测算法;地物目标边缘的矢量化;用基于约束Delaunay三角网的算法从地物的矢量边缘提取出地物骨架基线;基于二叉树结构的目标主骨架提取算法;飞机目标主要骨架特征分析;飞机目标的自动识别方法实现。本发明实现了飞机目标的自动识别与提取,取得了较好的识别提取效果。飞机目标骨架特征具有旋转不变性、与其他地物的较高区分度等优良特性;实现了自高空间分辨率遥感影像中高效、精确提取地物目标的矢量边缘;实现了改进的目标主骨架提取。
Description
技术领域
本发明涉及一种遥感影像信息提取方法,特别是涉及一种基于骨架特征分析高分辨率遥感影像飞机提取方法。
背景技术
目标识别属于模式识别(Pattern Recognition)的范畴,也可以狭义地理解为图像识别。目标识别以目标特征提取为基础,因为特征提取与目标识别联系非常紧密:特征提取是建立在目标与环境特性研究的基础上的,旨在提取反映目标本质属性的数量特征,这些特征向量为目标与环境的分离创造了条件。目标识别则是以特征提取为基础,根据特征提取过程得到的目标物体特征将目标从背景中分离,并确定目标的类型、位置以及其它有用的信息。而飞机自动识别是目标识别中的重要研究内容,无论在军事还是民用方面都起着很重要的作用。因为飞机目标具有的骨架特征共性,使集中识别具有相似形态的特定飞机目标成为可能。目前随着遥感技术的不断发展使“面向对象”成为飞机目标识别的新指导思想。
飞机目标识别研究背景:目前,飞机目标识别以基于栅格特征提取为主流,研究对象主要是雷达图像以及航空摄影图像。研究思路主要可以分为两种:第一种研究思路是运用图像不变性特征识别飞机,国外采用的不变性特征主要包括二维不变矩理论、基于Fourie分析、样条曲线的不变性及小波变换特征;第二种研究思路是运用二维模型匹配技术识别飞机。如1995年,Marouani.S在《International Conferenceon Computer Vision》中发表文章“Model-based Aircraft Recognition in PerspectiveAerial Imagery”,通过建立不同旋转角度和阴影偏移条件下的二维飞机影像模型,运用图像匹配技术识别飞机。
然而,由于上述的方法计算极其繁琐,且普适性较差,对形状的描述还不够完善,伴随着1990年以来卫星遥感技术的不断发展,图像边缘提取技术也随之成熟起来,大量研究人员开始基于矢量特征自动识别飞机目标。基于矢量特征提取的飞机目标识别一股步骤为“图像边缘检测-目标轮廓提取-特征提取(基于矢量)-飞机目标自动识别”。
二十世纪前后,国内众多学者开始基于矢量特征信息自动识别飞机目标。如陈小超在2007年长春理工大学硕士学位论文《基于几何特性的飞机目标特征提取技术的研究》中通过LOG边缘检测,采用基于边界曲线点的弦高度的多边形拟合技术提取图像轮廓,提取目标的几何尺寸、形状特征等作为特征参数,运用支持向量机(SVM,Support Vector Machine)的自动分类方法实现飞机目标自动识别。骨架的相关研究进展:
骨架又称中心轴线,即中轴线,它是二维图形边界内距其两侧边界等距离点的集合所组成的线。换句话说,骨架线或中心轴线就是二维几何图形内各个互不包含的所有最大内切圆的圆心轨迹线。
目前,骨架的提取方法主要包括基于数学形态学的骨架细化、基于三角网的骨架自动提取、及以几何分析为基础的分解-综合-化简的方法等。2004年,Ma rcNiethamme等在期刊《International Jou rnal of Computer Vision》60卷第3期中发表“Compa rative Study of Some Face Recognition Algorithms”一文提出了一种具有仿射不变性的侵蚀运算方法的骨架提取方法,并将此方法运用至具有斜对称性的图像骨架提取中。2004年,Atsushi Imiya等在期刊《Computer Society》第2卷第8期中发表“Principal Curve Analysis forTemporal Data”一文,对运用主曲线成分分析算法提取了随机时空数据的骨架。2006年,王辉连等在《测绘科学》第31卷第1期中发表“利用数学形态学提取骨架线的改进算法”一文,提出了一种利用数学形态学提取骨架线的改进算法,同时适用于栅格和矢量数据,能够较好地克服数学形态学方法在节点畸变和端点内缩方面的缺点。2002年,黄利民、倪健等在《测绘学院学报》第19卷第4期中发表“利用三角网方法实现面域骨架线的自动生成”一文,提出了根据符合骨架定义的提取规则,从三角网中自动提取骨架的方法,且研究发现该方法较之基于栅格的提取方法,速度更快、效果更好。2005年,韩元利等在《武汉大学学报(信息科学版)》第30卷第5期中发表“关于点与折线集的中轴线问题研究”一文,提出了将折线集分解为独立点、线要素,通过对各要素中轴检索序列的有序综合与简化,得到点与折线集中轴线的有序点集,形成目标骨架。
服务于特定研究目的,国内外一些研究人员对骨架特征进行了研究,如Chazal等从几何结构角度对骨架的稳定性和极限特性做了深入研究。王涛等运用骨架分支长度、走向和分布等因素,采用多因素评价的算法模型,实现了多层次结构化的骨架构建。
目标骨架的自动提取方法是空间信息特征分析的关注内容之一,在目标识别、图像处理、地理信息综合以及注记自动配置等方面有较为成熟和广泛的应用。现有技术的特点和存在的问题:
综观国内外飞机目标识别的研究进展,可以发现目前的研究主要呈现以下三个特点:
1.立足点的多元化。国内外的飞机识别研究的立足点主要包括基于飞机目标识别、基于飞机目标的快速定位(不提取轮廓)、基于识别效率的提高、基于模糊图像的飞机目标自动识别等。
2.研究框架的差别化。国内外的飞机识别的研究框架主要有三种:基于栅格图像特征提取的自动识别;面向对象的矢量特征提取的自动识别;基于样本库的图像特征匹配的自动识别。
3.识别方法的多样化。国内外的大量研究人员在研究的过程中引入了众多图像处理、图像分析、统计学、数据挖掘的相关理论与方法,如不变矩理论、Fourie分析、小波变换理论、相关分析、神经网络、支持向量机等等。
虽然飞机目标识别已取得了一些进展,但是目前基于矢量自动识别飞机目标的方法集中识别能力较弱,表现在大多数飞机目标识别方法以较为详尽的飞机目标几何特征为基础,如机身长度、机翼长度等。而现实世界中,新型号的飞机目标层出不穷,由于各种型号飞机的几何特征不尽相同,若进行众多型号飞机的识别,则需要耗费大量人力、物力建立庞大的与各飞机型号相对应的飞机特征样本库。而飞机的特征获取,有时涉及到军事机密,全面获取存在较大的难度。
发明内容
1.发明要解决的技术问题
针对以上的不足之处,本发明的目的是提供一种基于骨架特征高分辨率遥感影像飞机提取方法,基于矢量方法的视角,以多种高空间分辨率遥感影像为数据源,以基于边缘的多光谱遥感影像分割方法、骨架自动提取技术、基于BP神经网络的自动识别方法为依托的自高空间分辨率遥感影像中集中识别与提取飞机目标技术,以提高从遥感影像中提取飞机目标的效率和准确率。
2.本发明的技术方案如下:
基于骨架特征的高分辨率遥感影像飞机提取方法,步骤如下:
步骤1:收集资料。主要是研究所需的资料的搜集,包括高分辨率遥感影像的搜集和各种型号飞机资料的搜集。
步骤2:图像预处理和边缘检测。主要任务是选用合适的边缘检测算法对图像进行边缘检测,并对检测出来的边缘进行矢量化处理,得到矢量边缘对象。
步骤3:骨架与主骨架的提取。主要是从地物的矢量边缘,用基于约束Delaunay三角网的骨架提取算法提取出地物骨架基线,然后再用基于二叉树数据结构的目标主骨架提取算法从骨架基线中提取出主骨架信息。
步骤4:飞机目标识别。主要是通过骨架信息的计算分析得到能反映飞机与其他地物骨架差异的参数,然后用BP神经网络模型对飞机目标进行识别。
步骤2中的边缘检测选择用基于嵌入置信度的遥感影像边缘检测算法来进行边缘检测。(研究过程中分别用Sobel算子、Prewitt算子、Canny算子和基于嵌入置信度的遥感影像边缘检测算法四种方式来分别进行边缘检测,并对结果进行评估,其中嵌入置信度的检测方法效果最佳。)
步骤2中边缘矢量化处理实现方法如下:
矢量目标边缘是对边缘检测结果的矢量化表示,是为基于面向对象特征分析而引入的另一种对象表达方式。矢量目标边缘可通过对边缘检测结果图像的栅格-矢量转化而来。矢量和栅格之间转换在地理信息系统中属于比较经典的问题,已积累了较多的方法,主要可以分为细化追踪矢量化和非细化追踪矢量化。
ArcScan模块ArcGIS软件平台中的扫描矢量化的核心扩展模块,采用的是上述非细化矢量算法。它具有矢栅一体化编辑功能,可以实现自动消除噪音、剔除色斑、自动识别断点、虚线、符号化等功能。这样的矢量化方式,可以提高矢量转换的效率,因此本发明研究了ArcScan模块功能,完成了地物目标矢量边缘自动提取。
任何栅格-矢量转换的算法或者软件都不可能产生完美的矢量转换结果,必然存在一定的跟踪错误,ArcScan也不例外。因此,在完成边缘检测影像到矢量边缘的转换后,矢量的错误检查与人工辅助修改必不可少。只有完成了错误检查与修改并重建拓扑关系后,地物目标边缘拟合才算完成。处理流程如附图2所示。
步骤3中基于约束Delaunay三角网提取骨架的算法的基本流程如下,参照附图3:
①数据预处理。读入目标边缘数据后,通过数据离散化处理,将其转换为离散点数据,同时进行重复性、冗余性检查。此步骤是为了防止因目标边缘拟合过程中边缘数据出现的重复问题导致提取的骨架出现重复点,造成数据冗余,浪费存储空间。另外,进行适当的坐标压缩。多边形边缘原始的坐标点一股比较多,有的坐标点相距很近,有的甚至重合,为了不让这些过多的坐标点影响构建的三角网效果和提高构建效率,必须对原始数据进行压缩。对坐标数据进行压缩的算法,如道格拉斯压缩算法,都已比较成熟,这里不再赘述。
②以地物目标边缘为约束条件构建约束Delaunay三角网。该步骤一股分为两步进行:先以经过预处理后的点集为数据源,建立标准Delaunay三角网,再以地物目标边缘为约束条件,构建约束Delaunay三角网。
③剔除约束Delaunay三角网中位于地物目标外部的所有三角形,构建地物目标内部的约束Delaunay三角网。这一步骤是为了保证建立的Delaunay三角网在地物边缘范围以内,从而提取正确的骨架与主骨架。
④提取骨架。根据骨架的数学定义制定抽取骨架的规则,对三角网中的每一个三角形逐一提取骨架基线(即骨架的分支),再通过拓扑关系生成,最终完成目标骨架提取。
步骤3中约束Delaunay三角网的构建方法:
常见的约束Delaunay三角网构造算法可归纳为如下几种:约束图法、分割-合并算法、加密算法、shell三角化算法、两步法。两步法是目前采用较多的一种方法,经过改进,效率也相对较高,因此本发明选用两步法进行Delaunay三角网构建。目前,采用两步法构建CDT的算法大都先构建标准Delaunay三角网,再将约束边加入三角网中。以下就两个步骤分别作出说明。
①标准Delaunay三角网构建方法
生成Delaunay三角网的算法相当多,也已经比较成熟,不同的数据源采用的算法不尽相同,这里不多加赘述。
结合研究需求,综合考虑占用存储空间以及运算速度,研究采用生长算法构建标准Delaunay三角网。
生长算法。生长算法因搜索第三个顶点的方法不同,有多种实现方法。常见的有递归生长算法、凸闭包收缩法。三角网生长法的操作过程是任选一点,找到与它距离最近的点相连成为一条Delaunay边。按Delaunay三角网的基本法则,即空圆法则,寻找与此边构成Delaunay三角形的第3个顶点。重复进行这一过程直到所有数据都被连接进三角网中。
②嵌入约束线至标准Delaunay三角网
完成标准Delaunay三角网的构建之后,需要将面目标的所有线段作为约束线加入三角网中,研究采用了局部重建算法插入约束线。以附图4左侧所示数据为例,AB为需要插入的约束线段,待插入的标准Delaunay三角网为P1P2P3P4P5,插入约束线的算法流程如下:
首先,寻找当前约束线AB的影响区域,并确定影响区域边界。确定影响区域边界方法为:将约束线的两个端点分为起始点A与终止点B,从起始点A开始搜索,在标准Delaunay三角网中找到一个三角形T0,使得T0的边与线段AB相交并且A在T0内。在T0的邻接三角形中找到一个与约束线AB相交的三角形T1,重复这一过程,直至当前三角形的顶点为终止点B或者终止点在三角形Tn以内。图3.8中约束线AB的影响区域为{ΔP3P4P5,ΔP1P3P5}。
然后,以局部重建法插入约束线。如附图4右侧为插入约束线后的结果。局部重建算法的基本思想为:在影像区域内,把约束线段作为起始边,按最大角法则实现三角局部重建,最大角度法生成的三角网就是Delaunay三角网,生成的两相邻三角形就不用进行LOP优化处理。
步骤3基于二叉树结构的目标主骨架提取算法:
基于二叉树结构的目标主骨架提取主要依据Gestalt原则来进行。“Gestalt”源于德语,原意指“样式”(pattern)或“形状”(shape),其理论体系的基本含义为:就人的感知而言,存在一些整体(或称完型),其特性虽然不存在于各组成部分之中,但会对它们产生影响,Gestalt的研究目的在于发现并了解这些整体。在此过程中,人的知觉经验往往服从于某些图形特定的组成规律,这些规律称为Gestalt原则。Gestalt原则主要包括视觉平衡、视觉层次感、连续性、对称性、大小差异、方位排列、紧凑性等对目标视觉识别和群体结构分析产生的影响等。
基于约束Delaunay三角网提取的骨架是二叉树结构,其中包含着大量的分支。要得到地物目标的延展方向信息,还需要对按照上述方法提取的骨架做出取舍,以提取惟一确定的不含分支路径的主骨架。如附图5描述了骨架某个分支处的情况。从附图5(a)可以看到,多边形的骨架线在ΔP1P2P3处产生分叉,是典型的完整二叉树结构。根据Gestalt连续性原则,选择较为粗壮的R分支应作为主延展方向,可以保持人们在视觉上的连续性和完整性。这样,骨架的L分支可被裁减,得到附图5(b)中惟一确定的多边形延展方向。
基于上述原理分析,主骨架的提取时,在骨架分支处,即左右子节点均不为空处,以左右两个分支的面积作为消减标准,舍弃面积较小的分支,保留面积较大的分支,直至终止于地物目标的2个节点,即可得到主骨架。
步骤4中飞机目标主要骨架特征:
本发明选取的飞机目标的骨架特征参数主要分为几何特征和网络测度。
①骨架几何特征参数
对于不同几何大小的地物目标具有良好的区分度,主要包括骨架长度、主骨架线长度、主骨架长度面积比参数。这一类特征参数仅作为飞机目标骨架特征的辅助特征,因为飞机目标型号发生发生改变时,该类特征一股都会随之改变,且可能存在差异很大的情况。
骨架长度为骨架所有分支的和,反映地物目标的尺寸;主骨架长度为骨架中的最主要分支,反映地物目标主方向及其尺寸;主骨架长度面积比为最长骨架长度除以地物目标面积,反映地物目标的总体形态。
②骨架网络测度
地物目标的骨架形态可采用网络平面图进行抽象概括,网络测度对骨架线的连通性、复杂度等特性进行定量描述,具有唯一性、旋转不变性、缩放不变性,选取的骨架特征主要包括骨架节点数、β指数、Γ指数。
连线数目(计为m)是指骨架线网络连线数目。节点数目(计为n)是指骨架线网络节点数目,反映地物目标复杂性;β指数,也称折点率(计算公式为β=m/n),反映地物目标复杂性程度;Γ指数(计算公式为Γ=m/[3*(n-2*p)]),反映地物目标网络连通性。
③骨架紧凑度
骨架紧凑度反映的是目标物体主骨架对其骨架的充满程度,定义为目标物体的主骨架长度与骨架长度的比值。所以紧凑度表示为:
J=Lmain/Lwhole
其中,Lmain是该目标物体的主骨架长度,Lwhole表示目标物体的骨架长度。
④机长翼展比
飞机的机长翼展比(也称体态比)为目标主骨架和与其相连的最主要分支的长度比。机长翼展比是飞机目标识别中的一项重要特征。对于一股地物目标来说,该指标为骨架最长轴与最短轴的比值,若骨架为单一轴线,则机长翼展比为0。
步骤4飞机目标识别的BP神经网络设计的关键问题
对飞机目标的骨架特征进行分析后,选取了骨架网络测度、骨架紧凑度等具有旋转不变性、高区分度的优良指标进行高空间分辨率遥感影像中飞机目标自动识别。本发明采用BP神经网络的自动分类技术自动提取飞机目标,并从提取准确性、效率等方面对提取结果评价。
BP神经网络的神经元,又称为感知器,是由美国计算机科学家罗森布拉持于1957年提出的。感知器可谓是最早的人工神经网络。单层感知器是-个具有一层神经元、采用阈值激活函数的前向网络。通过对网络权值的训练,可以使感知器对一组输入矢量的响应达到元素为0或1的目标输出。从而实现对输入矢量分类的目的。
一个基本的BP神经元模型如图6所示。BP神经元模型与其他模型的差异除了主要表现在有一层或多层隐含层外,还表现在激活函数f上。BP神经元模型中的传递函数f通常取可微分的单调增函数,如对数Simgoid、对数S型函数logsig和线性传递型函数pu relin等。BP神经网络最后一层神经元的特性决定了整个神经网络的输出特性。例如,当最后一层神经元采用Simgoid型函数时,那么整个网络的输出就被限制在一个较小的范围内;如果最后一层神经元采用Puerlni型函数,则整个网络输出可以取任意值。
在进行神经网络设计时,应综合考虑网络的层数、每层中的神经元数、初始值以及学习速率等多个方面。
网络的层数。增加神经网络的层数可以进一步降低误差,提高精度,但同时也使网络复杂化,从而增加网络权值的训练时间。网络精度的提高,还有一种途径就是通过增加隐含层中的神经元数目来获得。增加隐含层中的神经元数目,其训练结果也比增加层数更容易观察和调整,训练结果也比增加隐含层要简单得多。所以一股情况下,应优先考虑增加隐含层中的神经元数目。
隐含层的神经元数。一股在具体设计时,比较实际的做法是隐含层数取输入层的两倍,然后适当的增加一点余量。评价一个网络设计的好坏,首先是它的精度,再一个就是训练时间,其中时间包含循环次数和每一次循环中计算所花的时间两层含义。
初始权值的选取。由于系统是非线性的,初始值的选取对于学习是否达到局部最小,是否能够收敛以及训练时间的长短有很大关系。初始值过大过小都会影响学习速度,因此权值的初始值应选为均匀分布的小数经验值,且为了避免每一步权值的调整方向是同向的,应将初始值设为随机数。一股选取的初始值在(-1,1)之间的随机数,也有研究选取(-2.4/F,2.4/F)之间的随机数,其中,F为输入特征个数。
学习速率图。学习速率决定每一次循环训练中所产生权值变化量。快的学习速率可能导致系统的不稳定,但慢的学习速率导致较长的训练时间,可能收敛很慢,不过能保证网络的误差值跳出误差表面的低谷而最终趋于最小误差值。所以,在一股情况下,神经网络学习倾向于选取偏慢的学习速率来保证整个系统的稳定性。为了减少寻找学习速率的训练次数以及训练时间,比较合适的方法是采用变化的自适应学习速率,使网络的训练在不同的阶段自动设置不同学习速率的大小。本实验采用自适应,调整学习率。
期望误差的选取。在网络的训练过程中,期望误差值需要根据隐含层的节点数来确定,因为较小的期望误差要靠增加隐含层的节点及训练时间来得到。一股情况下,可以同时对两个不同期望误差的网络进行训练,对比之后通过综合因素的考虑确定采用其中一个网络。
3.有益效果
本发明基于骨架特征分析高分辨率遥感影像飞机提取方法,以“图像边缘检测与矢量化-地物目标骨架提取-骨架特征分析-飞机目标自动识别”为主线思路,提供了一种从高空间分辨率遥感影像中集中识别飞机目标的具体方法。在此基础上,以Geoeye遥感影像数据为数据源,以Matlab为平台实现了飞机目标的自动识别与提取,取得了较好的识别提取效果。该方法的优势在于:
(1)飞机目标骨架特征具有旋转不变性、与其他地物的较高区分度等优良特性。以飞机目标的骨架共性特征为基础,运用基于BP神经网络的自动提取方法,能够实现自高空间分辨率遥感影像中集中、自动识别飞机目标,该方法具有一定容错能力,即使边缘提取的目标边缘在局部受到了图像阴影和其他地物(如停机坪)的影响时,也能根据目标骨架形态特征提取出飞机目标。
(2)通过对比基于Canny算子的边缘检测方法、基于Prewitt算子的边缘检测方法、基于Sobel算子的边缘检测方法、基于嵌入置信度的边缘检测方法的边缘检测结果,研究认为基于嵌入置信度的边缘检测方法最适合研究的需要。并以基于嵌入置信度的边缘检测方法为基础,建立了基于嵌入置信度的遥感图像边缘检测-基于ArcScan的边缘矢量化方法,实现了自高空间分辨率遥感影像中高效、精确提取地物目标的矢量边缘。
(3)在深入研究骨架特性与Delaunay三角网特性的基础上,探索并实现了基于约束Delaunay三角网的目标骨架提取算法。同时基于二叉树结构匹配存储生成的骨架,基于Gestalt原则建立针对飞机骨架特征的骨架分支消减原则,实现了改进的目标主骨架提取。
附图说明
图1为本发明研究技术路线图;
图2为遥感图像边缘拟合处理流程;
图3为基于目标矢量边缘提取骨架流程图;
图4为局部重建法示意图;
图5为消减分支示意图;
图6为BP神经网络神经元结构(线性传递函数);
图7为边缘检测前的遥感影像;
图8为Sobel算子边缘检测结果;
图9为Prewitt算子边缘检测结果;
图10为Canny算子边缘检测结果;
图11为基于嵌入置信度的边缘检测结果;
图12为基于ArcScan的边缘检测图像矢量化处理流程;
图13为不同节点压缩参数下对相同图像矢量化结果对比图;
图14为边缘图像矢量化后的边缘线图层;
图15为边缘图像矢量化后的边缘面图层;
图16为拓扑检查后的边缘图像矢量化结果;
图17为边缘图像矢量化结果;
图18为递归生长算法生成的标准Delaunay三角网;
图19为骨架基线提取规则;
图20为骨架基线提取结果;
图21为八种型号飞机形态图;
图22为飞机目标识别结果;
图23为飞机目标识别结果。
具体实施方式
以下通过实施例结合附图对本发明作进一步描述:
实施例:
将以附图7所示Geoeye高空间分辨率遥感影像为例进行说明。GeoEye-1遥感影像彩色空间分辨率为2.624米,能够以3米的定位精度精确确定目标位置。目前,GeoEye-1是世界上空间分辨率和精度最高的商业成像卫星之一。
参照技术方案描述的四个步骤来对实验图像进行处理,具体流程步骤如下:步骤一:选择基于嵌入置信度的边缘方法进行边缘检测。
用四种边缘检测的方法对原影像进行边缘检测,附图8、附图9、附图10和附图11分别为附图7影像的Sobel算子、Prewitt算子、Canny算子和基于嵌入置信度的边缘方法的边缘检测结果,四种边缘检测方法的对比情况如表1。
表1四种边缘检测方法的对比情况表
Tab 1Comparison of four edge detection method
主要从两个方面来选择边缘检测方法:
①对飞机目标的检测精度。研究的核心是精确提取飞机目标,因此选取的边缘检测算法首先应尽可能详细地提取出飞机目标边缘。由检测结果可知,Sobel算子、Prewitt算子都是仅利用梯度幅值作为边缘的检测标准,因此检测结果相似,但飞机目标的边缘未能完全检测出来,而Canny算子、基于嵌入置信度的边缘检测的飞机目标识别结果较之Sobel算子、Prewitt算子更精细,因此研究不采用Sobel算子、Prewitt算子进行边缘检测。
②检测结果中边缘占图像栅格总数的比例。边缘检测结果中,边缘占图像栅格总数的比例越高,将其矢量化的工作量越大,提取出的地物目标总数就越多,目标识别的效率就越低。Canny算子与基于嵌入置信度的边缘检测结果中边缘占图像栅格总数的比例分别为12.46%、11.00%,可见Canny算子的检测结果最为细致,但检测出的边缘过多,将会极大地增加后续自动识别的工作量。如机场停机坪中检测出了多个较小的地物目标,从而将停机坪分割为多个目标,但是实际上停机坪可以提取为整块目标,由此可以减少飞机目标识别的计算量。
综合上述分析得出,Sobel算子、Prewitt算子、Canny算子三种边缘检测算子不能完全满足研究中精确、高效识别飞机目标的要求。而基于嵌入置信度的边缘检测方法用梯度幅值以外的信息,如边缘的方向信息,来估计数据模式和理想边缘模板之间的相似性(置信度)。这种检测方法在一定程度上更为详细地提取了目标边缘,同时滤除了一些飞机目标识别中不重要的边缘信息,能较好地解决上述算子存在的问题。因而选择基于嵌入置信度的边缘方法来对图像进行边缘检测。
步骤二:地物目标边缘的矢量化。
按照附图12的流程来获取矢量边缘对象:
1)基于ArcScan的边缘检测图像矢量化。
使用ArcScan进行地物目标边缘拟合的基本流程如附图12:
①二值化图像。因为ArcScan矢量化图像要求原图像是二值的,所以要对加入ArcGIS中的边缘图像进行栅格编辑,即对边缘提取图像通过重分类将其分为两类:边缘和非边缘。图像二值化前,可以根据边缘图像的实际情况,对边缘图像做预处理,以为后续的矢量化工作节省工作时间,如去除毛刺噪声、空洞操作和连接断线等。
②建立矢量化的基础地理数据库。在ArcCatalog中建立新的线、面图层,设置图层的坐标系统与投影,导入基础地理数据库(Personal Geodatabase,简称为MDB)中,并设为可编辑状态。
③ArcScan参数设置。不同的参数设置对边缘的矢量转换结果有很大影响。一股而言,根据不同的二值化图像,一股设置5-20个像元的线宽,在参数设置中,可以设置捕捉的跟踪像元位置,主要包括节点压缩(Compression Tolerance)、最大线宽(Maximum Line Width)、中心线(Centerlines)和终点(Ends)等。其中,对于飞机目标提取影像最大的两个参数就是节点压缩和最大线宽。最大线宽是计算机区分线状要素与面状要素的临界值,以像素为单位,设置范围是1~100。该参数的设置取决于最小图斑的大小,以及边缘图像分辨率。为了不至于在矢量化时丢失小的图斑,该参数可设置为最小值1。另外,如果将边缘的全部节点作为矢量化边缘的节点记录下来,其数据量是巨大的,将极大地减缓飞机骨架提取的速度。而事实上其节点是存在冗余的,因此可对节点做压缩处理。节点压缩是对矢量化后的图形进行概括处理,节点压缩值越大,概括程度越大,与原图的接近程度越小,节点压缩的概括采用的是道格拉斯算法。附图13是在不同节点压缩参数下对相同图像矢量化的结果比较图。
④基于ArcScan的边缘图像矢量化。在ArcGIS中利用ArcScan模块对边缘检测结果图像进行自动跟踪,主要有2种方式:交互式的矢量化即在栅格图上分别点击某条线上的2个点,系统就会自动跟踪矢量化这两点之间的这段线;自动矢量化,即批处理方式的矢量化,可以自动地矢量化指定区域内的栅格数据。研究首先利用ArcScan对整幅边缘图像进行自动矢量化,得到一个边缘线图层(如附图14)和一个边缘面图层(附图15)。由附图14和附图15可知,边缘线图层中包含的有效边缘信息较多,其中存在大量能够连接为面状目标边缘的线段。
⑤边缘的属性添加。当边缘矢量化结果满足实验要求时,编辑其属性数据,添加长度、面积、标号等属性特征。
2)矢量拓扑检查
边缘矢量化结果难免会存在一些拓扑错误,如相交线、自相交线、悬挂线等。因此,需要对边缘矢量化结果进行拓扑重建与拓扑检查,检查后对其进行修正,线状目标拓扑修正主要包括:剪断相交线、清除短线和合并小线段等,面状目标拓扑修正主要包括:修正含有碎屑的多边形、填补多边形之间的间隙等。同时对线状边缘通过设置一定容差,根据现状边缘的拓扑关系将相邻线段连接成新的地物面状边缘。在这一过程中,需要将遥感影像的外框加入计算,以免部分地物被漏选。即使通过上述修正,边缘矢量化结果也可能无法完全地满足研究要求,因此矢量化后需要或多或少需要人的参与,对地物目标边缘提取结果作进一步处理,使之更为合理。
由附图16可以看出,即使经过上述一系列修正,边缘图像提取仍然有不尽如人意的地方,如图面右侧有几条道路由于边缘提取缺失仍然没有全部提取出来。但是研究关注的是飞机目标,因此这类缺失在此不再深入地讨论。
3)破碎图斑自动滤除
由于基于ArcScan的地物目标边缘拟合所得到的结果有可能并不完美,高空间分辨率遥感影像中存在着大量的面积较小的阴影区域,导致了大量破碎细小的图斑出现,因此可以在需要的时候运用ArcGIS的矢量编辑功能进行人工干预。在研究中,经上述方法提取的边缘结果中过于破碎、细小图斑的滤除采用单阈值的方法:将面积小于T1的矢量图斑对象尽可能合并到最能改善其周围的矢量图斑对象的形态指数的对象中。
其合并算法如下:①设定合并面积阈值T;②搜寻面积小于T的矢量图斑对象;③查找与该对象有公共边的所有矢量图斑对象,计算各相邻矢量图斑对象的形态指数;④将该矢量图斑对象分别与相邻的矢量图斑对象合并,计算合并后的形态指数;⑤排序,找出与之相邻的最能改善形态指数的对象,进行合并;⑥将合并后的对象写入文件,并删除合并前的两个矢量图斑对象。去除结果附图17。
步骤三:用基于约束Delaunay三角网的算法从地物的矢量边缘提取出地物骨架基线
1)数据预处理。读入目标边缘数据后,通过数据离散化处理,将其转换为离散点数据,同时进行重复性、冗余性检查。此步骤是为了防止因目标边缘拟合过程中边缘数据出现的重复问题导致提取的骨架出现重复点,造成数据冗余,浪费存储空间。另外,进行适当地坐标压缩。多边形边缘原始的坐标点一股比较多,有的坐标点相距很近,有的甚至重合,为了不让这些过多的坐标点影响构建的三角网效果和提高构建效率,必须对原始数据进行压缩。对坐标数据进行压缩的算法,如道格拉斯压缩算法,都已比较成熟,这里不再赘述。
2)以地物目标边缘为约束条件构建约束Delaunay三角网。一股这一步骤分为两步进行:先以经过预处理后的点集为数据源,用三角形递归生长算法构建标准Delaunay三角网,构建结果如附图18,再以地物目标边缘为约束条件,构建约束Delaunay三角网,构建结果如附图19。(构建约束Delaunay三角网的具体方法在技术方案中,对步骤3的说明中已经阐明)
3)剔除约束Delaunay三角网中位于地物目标外部的所有三角形,构建地物目标内部的约束Delaunay三角网。这一步骤是为了保证建立的Delaunay三角网在地物边缘范围以内,从而提取正确的骨架与主骨架。
剔除的方法为:遍历约束Delaunay三角网中所有的三角形,计算每个三角形的中心,由于三角形中心一定位于三角形内部,只需计算三角形中心与地物目
标的位置关系,若在地物目标边缘以外,则剔除该三角形。
判定点与地物目标的位置关系则采用经典的单向射线判定方法:以待判定点为起点,向单一方向引平行射线,交点为偶数个,则待定点在地物目标外,反之,则待定点在地物目标内。
核心判定代码如下:
BOOL SanDian_to_Tin::Is_In_Triangle(double x,double y,int Triangel_Id)
{
//判断(x,y)是否在id为Triangel_Id的三角形内
int i=0,j=0,c=0;
double temp=0;
double yp[3],xp[3]; //(xp[i],yP[i])为当前三角形坐标
for(i=0;i<3;i++)
{
if(i==0) j=2;
else j=i-1;
temp=(xp[j]-xp[i])*(y-yp[i])/(yp[j]-yp[i])+xp[i];
if((((yp[i]<=y)&&(y<yp[j]))||((yp[j]<=y)&&(y<yp[i])))&&
(x<temp))
{
if(c==0)c=1;
else c=0;
}
}
if(c>0)return true;
else return false;
}
4)提取骨架。根据骨架的数学定义制定抽取骨架的规则,对三角网中的每一个三角形逐一提取骨架基线(即骨架的分支),再通过拓扑关系生成,最终完成目标骨架提取。
基于三角形编码的骨架基线提取方法:
基于约束Delaunay三角网提取骨架是以对其中的三角形进行分类编码,按照相应规则提取骨架基线为基础的。
对多边形内部的三角形进行拓扑分析,并根据其邻接三角形的数目,逐个编码,划分为三类:仅有一个邻接多边形的为I类三角形,有两个邻接多边形的为II类三角形,有三个邻接多边形的为III类三角形。I类三角形是三角网中的边界节点,其3个顶点中有一个顶点作为骨架的端点;II类三角形是三角网中的跨接三角形,是骨架的骨干结构,描述的是骨架的延伸方向;III类三角形是骨架各分支的交汇点,是向3个方向延伸的汇聚点。
三角网编码完成后,即可按照骨架基线提取方法(附图19),对三角网中的所有三角形逐一提取骨架,完成骨架提取。其中,骨架基线是三角网中的各个三角形中提取出来的骨架分支线段。骨架基线搜索方向为:
I类:A->n;n->A
II类:P1->P 2;P 2->P1;
III类:P3->O->P1->P2
骨架拓扑关系重建:
根据上述骨架基线提取规则,由于一个骨架节点至多向两个方向进行骨架基线搜索,根据这一特性,骨架可以采用二叉树结构来表示。
经过骨架基线提取,各骨架基线处于无序状态,因此需要对骨架基线集合进行拓扑关系重建,构建二叉树结构的骨架,为提取主骨架做好准备。重建时以I类三角形的骨架基线开始搜索起(如图19),将I类的点A、III类三角形的点O作为二叉树的中间节点,按照基线连接关系连接所有骨架基线,使得骨架基线集合成为网状结构,如附图20。
步骤四:基于二叉树结构的目标主骨架提取算法
根据技术方案中的技术原理,目标主骨架的具体提取过程如下(以下将左右子结点都非空的节点称为中间节点,其他节点称为非中间节点):
①清空主骨架数据。以一个任意的非中间节点作为当前节点,并将当前节点作为主骨架的起始点,然后将当前节点的下一节点作为当前节点;
②若当前节点为中间节点,则分别计算左右两个分支的面积,消减分支面积小的一个分支,将面积较大的分支加入主骨架,然后将面积较大的分支最后一个节点作为当前节点;若当前节点为非中间节点,将该节点加入主骨架,则将当前节点的下一节点作为当前节点;
③若所有节点通路都搜索完毕,则输出主骨架,否则,转第②步。
但是,研究中飞机目标的骨架具有对称性,容易出现骨架的两个分支面积相同或相近的情况。如果完全按照上述原理消减骨架分支,极有可能会丢失骨架的主要信息,如消减时,将飞机一侧骨架分支去除,这样就背离了发明的目的。据此,研究对上述主骨架提取的原则,略作修改,使其符合飞机目标主骨架提取的特殊要求,消减原则如下:
第一,优先选择与当前主骨架方向相近的分支,若分支与主骨架方向角度差异小于阈值时,则将该分支作为主骨架,将其他分支消减;
第二,当不存在方向相近的分支时,若当前两个分支与已提取的主骨架夹角差异较小,且小于阈值时:若两个分支面积均大于目标总面积的5%,则两分支均选取;若两个分支面积均小于目标总面积的5%,则两个分支均消减掉;否则,消减面积较小的分支。
第三,当不存在方向相近的分支时,若当前两个分支与已提取的主骨架夹角差异较大时:若两个分支面积均小于目标总面积的5%,则两个分支均消减掉;否则,消减面积较小的分支。
步骤五:飞机目标主要骨架特征分析
为了使所选的骨架特征具有优良的描述性能、受成像环境影响小以及高区分度的性能,本发明从不同型号的飞机目标骨架特征共性以及飞机目标与其他地物目标的骨架特征的差异性进行详细分析,选取质量优良的骨架特征。
(1)飞机目标样本
飞机目标型号多样,形态虽然大体相似,但仍然有较大差异,如图21所示,研究以B-1、Challenger、DC-10、F-14、F-16、Ha rrier、Mig-29、Mi rage等八种型号的飞机为样本进行飞机目标骨架特征分析。
(2)八种型号飞机目标骨架特征的描述性能分析
①八种型号飞机目标骨架特征的相似性分析
根据上述骨架与主骨架提取方法,计算八种型号的飞机目标骨架特征值如表2。需要说明的是,因研究关注的是八种飞机目标的骨架特征形态的相似性,并不关注飞机目标的绝对几何特征,如骨架长度、轮廓面积,因此本案例所计算出的八种型号飞机骨架特征的几何值仅具有相互之间的可比性。
表2八种型号飞机目标骨架特征表
Tab 2Skeleton Characteristics of eight type of aircrafts
可以看出,八种型号的飞机目标β指数、Γ指数两种网络测度指标表现最为稳定,表明了飞机目标之间骨架网络形态上具有较大相似性。
八种型号的飞机目标的骨架紧凑度变化幅度也较小,主要在(0.5,0.85)之间变化。其中,B-1、Challenger型号的飞机目标骨架紧凑度基本一致,DC-10、F-14、F-16、Ha rrie r、Mig-29、Mirage型号的战斗机目标骨架紧凑度指标相对一致。
②飞机目标骨架特征的描述质量分析
为定量描述骨架特征的描述质量,可以将每个特征视为服从高斯分布的随机变量,采用特征值的均值和标准偏差来描述特征质量,即用(m,δ)来表述特征的质量,计算公式如式1。其中,fi为第i个样本的骨架特征值,N为样本总数。
按照式1计算可以得出β指数、Γ指数、骨架紧凑度和机长展翼比四个特征量的模型表述性能较好(表3)。
表3八种型号飞机目标骨架特征的方差
Tab 3Skeleton characteristics Variance of eight type aircrafts
(3)飞机目标与其他地物目标骨架特征的差异性分析
研究从遥感影像中提取了空地、建筑用地,飞机目标和机动车辆等较为典型的地物目标类型,按照上述骨架特征计算方法计算特征参数,得到了部分地物目标特征参数表(如表4)。虽然所选取的地物未能涵盖所有地物目标类型,但通过飞机目标与其他地物目标的骨架特征对比情况,可以看出飞机目标骨架特征较之其他地物β指数集中在0.9数值附近,Γ指数集中在0.35附近,骨架紧凑度值则较之其他地物小,机长展翼比较之其他地物则较大,甚至有大于1的情况出现。据此,骨架特征能够较为清晰地区分飞机目标和其他地物目标,上述分析为自高空间分辨率遥感影像中提取飞机目标提供了基础。
表4地物目标特征参数表
Tab 4Skeleton characteristics of targets
步骤六:飞机目标的自动识别方法实现
(1)飞机目标识别的BP神经网络设计
①确定输入量
根据飞机目标的骨架特征分析结果,将主骨架长度面积比、β指数、Γ指数、骨架紧凑度和机长展翼比作为BP神经网络的输入向量。其中,主骨架长度面积比用A来表示,β指数用β来表示、Γ指数用Γ来表示、骨架紧凑度用J来表示和机长展翼比用L来表示。
②确定输出向量
基于骨架特征的高空间分辨率遥感影像中飞机目标识别的结果是类型识别,即飞机目标或者非飞机目标。因此,以1表示飞机目标,0表示非飞机目标。
③确定隐节点的个数
确定最佳隐节点数的常用方法称为试凑法,可先设置较少的隐节点训练网络,然后逐渐增加隐节点数,用同一样本集进行训练,从中确定网络误差最小时对应的隐节点数。在用试凑法时,可以采用一些确定隐节点数的经验公式,来作为试凑法的初始值。采用以下公式:
式2中,M为隐节点个数,N为输入层节点数,L为输出层节点数。根据飞机目标识别模型的输入向量个数(5个)和输出向量个数(1个),研究采用试凑法确定的初始隐节点个数为3个。
④训练数据的归一化处理
由于样本中骨架特征数据如果存在数量级差异,那么权重容易偏向数量级大的特征项,导致BP神经网络训练无法收敛。因此,在进行神经网络训练前,采用式3将输入数据规一化至[-1,1]之间。
式3中,假设骨架特征为i个,训练样本共有j个,Pij为第j个训练样本的第i个骨架特征值,Pimin为第i个骨架特征的最小值,Pimax为第i个骨架特征的最大值。经过归一化处理,样本值如表5所示。表中列出了部分样本值。
⑤基于Matlab的BP神经网络训练
把前面分析的八种型号飞机目标以及搜集的其他型号飞机目标的骨架特征参数经过筛选后输入计算机,运用Matlab的trianbp函数反复训练神经网络,并对学习样本进行反复学习,直到网络模型满足识别精度要求。
表5归一化处理后的样本值(部分)
Tab 5The normalized values of samples
(2)基于BP神经网络的飞机目标识别
计算附图17中所有地物的主骨架长度面积比、β指数、Γ指数、骨架紧凑度和机长展翼比骨架特征,将其骨架特征(表6)输入上一步骤中训练得到的神经网络中进行仿真,得到结果如表7。其中,标号为20、23的对象为飞机目标。根据仿真结果可知,虽然贝叶斯正则化算法精度训练精度较高,但在实际应用中,其非飞机目标的输出值以0为中心的波动幅度较之贝叶斯正则化算法明显较大,导致飞机目标与飞机目标的输出值差别缩小,将不利于飞机目标识别与提取,这说明标准BP网络算法在提取飞的表现更优。根据神经网络仿真结果,确定飞机目标识别的阈值为0.8,即输出值大于0.8的目标为飞机目标,输出值小于0.8的目标为非飞机目标。选取阈值大于0.8的目标后,在遥感影像中标注出来,提取结果如图22所示。
表6输入样本的骨架特征情况表(部分)
Tab 6Part of training samples skeleton characteristics
表7仿真后输出结果情况表(部分)
Tab 7BP neural network output after simulation
结果:飞机目标提取结果分析
以遥感影像如图7初步试验上述飞机目标提取方法后,采用IKONOS高空间分辨率遥感影像数据进行再次实验,图像区域为香港机场,机场中共有35架各种型号客机,对该区域进行飞机目标自动提取结果如图23,图中有线条边框区域为提取的飞机目标,全白色填充区域为漏检的飞机目标区域。提取情况分析如表8所示。
从实验结果看,利用骨架特征对飞机目标进行集中识别取得了较好的效果,识别率超过85%。另外,基于骨架特征提取飞机目标具有一定容错能力,当飞机目标边缘矢量化结果基本保持飞机目标形态,即使局部受到图像阴影和其他地物,如停机坪影响时,也有可能根据目标骨架形态特征提取出飞机目标。
表8飞机目标提取结果分析表
Tab 8BP neural network output after simulation
Claims (6)
1.一种基于骨架特征的高分辨率遥感影像飞机提取方法,包括以下步骤:
步骤1:选择基于嵌入置信度的遥感影像边缘检测算法进行边缘检测,以Matlab和Visual C++6.0为平台实现基于嵌入置信度的遥感影像边缘检测算法;
步骤2:地物目标边缘的矢量化,首先使用ArcScan对提取得到的地物目标边缘进行矢量化,然后进行矢量拓扑检查和破碎图斑自动滤除得到较好的地物目标边缘矢量对象;
步骤3:用基于约束Delaunay三角网的算法从地物的矢量边缘提取出地物骨架基线,分四步完成(1)数据预处理以减少冗余,(2)以地物目标边缘为约束条件构建约束Delaunay三角网,(3)剔除约束Delaunay三角网中位于地物目标外部的所有三角形,(4)对三角网中的每一个三角形逐一提取骨架基线;
步骤4:基于二叉树结构的目标主骨架提取算法,主骨架的提取方法是,在骨架分支处,即左右子节点均不为空处,以左右两个分支的面积作为消减标准,舍弃面积较小的分支,保留面积较大的分支,直至终止于地物目标的2个节点,即可得到主骨架;
步骤5:飞机目标主要骨架特征分析;以B-1、Challenger、DC-10、F-14、F-16、Harrier、Mig-29、Mirage等八种型号的飞机为样本进行飞机目标骨架特征分析,根据八种型号飞机目标骨架特征的相似性得到骨架几何特征参数,骨架网络测度,骨架紧凑度和机长翼展比四个合适的骨架特征参数作为下一步目标识别的判断参数;
步骤6:飞机目标的自动识别方法实现,以Matlab为实现平台,实现了基于BP神经网络的飞机目标识别方法的设计,并进行神经网络训练,完成网络训练后进行飞机目标的提取。
2.根据权利要求1所述的一种基于骨架特征的高分辨率遥感影像飞机提取方法其特征在于步骤1和2中以基于嵌入置信度的边缘检测方法为基础,建立了基于嵌入置信度的遥感图像边缘检测-基于ArcScan的边缘矢量化方法,实现了自高空间分辨率遥感影像中高效、精确提取地物目标的矢量边缘。
3.根据权利要求2所述的一种基于骨架特征的高分辨率遥感影像飞机提取方法其特征在于步骤3中将位于目标边缘外的三角形剔除,以生成地物目标内部的约束Delaunay三角网的算法,剔除的方法为:遍历约束Delaunay三角网中所有的三角形,计算每个三角形的中心,由于三角形中心一定位于三角形内部,只需计算三角形中心与地物目。
4.根据权利要求1~3中任一项所述的一种基于骨架特征的高分辨率遥感影像飞机提取方法其特征在于步骤4中基于二叉树结构的目标主骨架提取算法,主骨架提取时,在骨架分支处,即左右子节点均不为空处,以左右两个分支的面积作为消减标准,舍弃面积较小的分支,保留面积较大的分支,直至终止于地物目标的2个节点,即可得到主骨架。
5.根据权利要求1~3中任一项所述的一种基于骨架特征的高分辨率遥感影像飞机提取方法其特征在于步骤5中对β指数、Γ指数、骨架紧凑度和机长展翼比四个特征量的分析与选择。
6.根据权利要求1~3中任一项所述的一种基于骨架特征的高分辨率遥感影像飞机提取方法其特征在于步骤6中BP神经网络模型的流程设计:
①确定输入量
根据飞机目标的骨架特征分析结果,将主骨架长度面积比、β指数、Γ指数、骨架紧凑度和机长展翼比作为BP神经网络的输入向量;
②确定输出向量
基于骨架特征的高空间分辨率遥感影像中飞机目标识别的结果是类型识别,即飞机目标或者非飞机目标,以1表示飞机目标,0表示非飞机目标;
③确定隐节点的个数
确定最佳隐节点数的常用方法称为试凑法,可先设置较少的隐节点训练网络,然后逐渐增加隐节点数,用同一样本集进行训练,从中确定网络误差最小时对应的隐节点数,采用以下公式:
式2中,M为隐节点个数,N为输入层节点数,L为输出层节点数。根据飞机目标识别模型的输入向量个数(5个)和输出向量个数(1个),研究采用试凑法确定的初始隐节点个数为3个;
④训练数据的归一化处理
由于样本中骨架特征数据如果存在数量级差异,那么权重容易偏向数量级大的特征项,导致BP神经网络训练无法收敛。因此,在进行神经网络训练前,采用式3将输入数据规一化至[-1,1]之间,
式3中,假设骨架特征为i个,训练样本共有j个,Pij为第j个训练样本的第i个骨架特征值,Pimin为第i个骨架特征的最小值,Pimax为第i个骨架特征的最大值;
⑤基于Matlab的BP神经网络训练
把八种型号飞机目标以及搜集的其他型号飞机目标的骨架特征参数经过筛选后输入计算机,运用Matlab的trianbp函数反复训练神经网络,并对学习样本进行反复学习,直到网络模型满足识别精度要求。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201010566913.1A CN102004922B (zh) | 2010-12-01 | 2010-12-01 | 基于骨架特征的高分辨率遥感影像飞机提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201010566913.1A CN102004922B (zh) | 2010-12-01 | 2010-12-01 | 基于骨架特征的高分辨率遥感影像飞机提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102004922A true CN102004922A (zh) | 2011-04-06 |
CN102004922B CN102004922B (zh) | 2012-12-26 |
Family
ID=43812274
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201010566913.1A Expired - Fee Related CN102004922B (zh) | 2010-12-01 | 2010-12-01 | 基于骨架特征的高分辨率遥感影像飞机提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102004922B (zh) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102663368A (zh) * | 2012-04-16 | 2012-09-12 | 南京大学 | 基于格式塔视觉原理的运动目标区域整合优化方法 |
CN102930561A (zh) * | 2012-10-22 | 2013-02-13 | 南京大学 | 一种基于Delaunay三角网的栅格地图矢量化方法 |
CN103049764A (zh) * | 2012-12-13 | 2013-04-17 | 中国科学院上海微系统与信息技术研究所 | 一种低空飞行器目标识别方法 |
CN103679128A (zh) * | 2012-09-24 | 2014-03-26 | 中国航天科工集团第二研究院二O七所 | 一种抗云层干扰的飞机目标检测方法 |
CN103714344A (zh) * | 2013-12-19 | 2014-04-09 | 西南交通大学 | 基于几何部件及径向梯度角的遥感检测飞机的方法 |
CN103955700A (zh) * | 2014-04-04 | 2014-07-30 | 云南大学 | 一种形状特征形式化的高分辨率遥感影像飞行器识别方法 |
CN107845139A (zh) * | 2017-10-18 | 2018-03-27 | 中国测绘科学研究院 | 一种狭长图斑分裂线的处理方法 |
CN109446992A (zh) * | 2018-10-30 | 2019-03-08 | 苏州中科天启遥感科技有限公司 | 基于深度学习的遥感影像建筑物提取方法及系统、存储介质、电子设备 |
CN109816749A (zh) * | 2019-02-14 | 2019-05-28 | 中国测绘科学研究院 | 图斑地图符号填充方法、装置、计算机设备及存储介质 |
CN110057449A (zh) * | 2019-04-29 | 2019-07-26 | 上海卫星工程研究所 | 基于视场分光高光谱探测的空中目标高度和速度计算方法 |
CN110570440A (zh) * | 2019-07-19 | 2019-12-13 | 武汉珈和科技有限公司 | 一种基于深度学习边缘检测的图像自动分割方法及装置 |
CN111368603A (zh) * | 2018-12-26 | 2020-07-03 | 北京眼神智能科技有限公司 | 遥感图像的飞机分割方法、装置、可读存储介质及设备 |
CN111582237A (zh) * | 2020-05-28 | 2020-08-25 | 国家海洋信息中心 | 基于atsm模型的高分影像飞机类型识别方法 |
CN111881919A (zh) * | 2020-06-22 | 2020-11-03 | 中国人民解放军战略支援部队信息工程大学 | 一种基于追踪式格网剖分的线要素智能化简方法与装置 |
CN113240026A (zh) * | 2021-05-24 | 2021-08-10 | 中国科学院重庆绿色智能技术研究院 | 一种矢栅结合的内陆水面漂浮物批量识别提取方法 |
CN113255038A (zh) * | 2021-05-21 | 2021-08-13 | 杭州群核信息技术有限公司 | 一种基于直骨架的屋顶造体方法及系统 |
CN113628251A (zh) * | 2021-10-11 | 2021-11-09 | 北京中科金马科技股份有限公司 | 一种智慧酒店终端监测方法 |
CN113643191A (zh) * | 2020-04-27 | 2021-11-12 | 北京蓝亚盒子科技有限公司 | 用于体素模型的平滑方法、装置及电子设备 |
CN114299399A (zh) * | 2021-11-17 | 2022-04-08 | 北京航空航天大学 | 一种基于骨架线关系的飞机目标确认方法 |
CN114492212A (zh) * | 2022-04-15 | 2022-05-13 | 石家庄科林物联网科技有限公司 | 低压配电网动态增容方法、装置、终端及存储介质 |
CN116894282A (zh) * | 2023-09-07 | 2023-10-17 | 中国空气动力研究与发展中心计算空气动力研究所 | 空间点集与多连通网格区域拓扑关系的识别方法及系统 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111300415B (zh) * | 2020-03-06 | 2022-03-04 | 亿嘉和科技股份有限公司 | 一种用于带电作业机器人场景下的最佳作业位置确定方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1996346A (zh) * | 2005-12-29 | 2007-07-11 | 电子科技大学 | 基于轮廓的车型识别方法 |
CN101364259A (zh) * | 2008-04-09 | 2009-02-11 | 武汉大学 | 多层次知识驱动的全色遥感影像的道路变化信息提取方法 |
CN101393641A (zh) * | 2008-11-07 | 2009-03-25 | 华中科技大学 | 一种基于上下文的机场目标解译方法 |
CN101719140A (zh) * | 2009-12-23 | 2010-06-02 | 中山大学 | 一种图形检索方法 |
-
2010
- 2010-12-01 CN CN201010566913.1A patent/CN102004922B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1996346A (zh) * | 2005-12-29 | 2007-07-11 | 电子科技大学 | 基于轮廓的车型识别方法 |
CN101364259A (zh) * | 2008-04-09 | 2009-02-11 | 武汉大学 | 多层次知识驱动的全色遥感影像的道路变化信息提取方法 |
CN101393641A (zh) * | 2008-11-07 | 2009-03-25 | 华中科技大学 | 一种基于上下文的机场目标解译方法 |
CN101719140A (zh) * | 2009-12-23 | 2010-06-02 | 中山大学 | 一种图形检索方法 |
Cited By (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102663368A (zh) * | 2012-04-16 | 2012-09-12 | 南京大学 | 基于格式塔视觉原理的运动目标区域整合优化方法 |
CN102663368B (zh) * | 2012-04-16 | 2014-09-17 | 南京大学 | 基于格式塔视觉原理的运动目标区域整合优化方法 |
CN103679128A (zh) * | 2012-09-24 | 2014-03-26 | 中国航天科工集团第二研究院二O七所 | 一种抗云层干扰的飞机目标检测方法 |
CN103679128B (zh) * | 2012-09-24 | 2016-09-28 | 中国航天科工集团第二研究院二O七所 | 一种抗云层干扰的飞机目标检测方法 |
CN102930561A (zh) * | 2012-10-22 | 2013-02-13 | 南京大学 | 一种基于Delaunay三角网的栅格地图矢量化方法 |
CN102930561B (zh) * | 2012-10-22 | 2015-04-15 | 南京大学 | 一种基于Delaunay三角网的栅格地图矢量化方法 |
CN103049764A (zh) * | 2012-12-13 | 2013-04-17 | 中国科学院上海微系统与信息技术研究所 | 一种低空飞行器目标识别方法 |
CN103714344A (zh) * | 2013-12-19 | 2014-04-09 | 西南交通大学 | 基于几何部件及径向梯度角的遥感检测飞机的方法 |
CN103714344B (zh) * | 2013-12-19 | 2017-02-08 | 西南交通大学 | 基于几何部件及径向梯度角的遥感检测飞机的方法 |
CN103955700A (zh) * | 2014-04-04 | 2014-07-30 | 云南大学 | 一种形状特征形式化的高分辨率遥感影像飞行器识别方法 |
CN107845139B (zh) * | 2017-10-18 | 2021-05-07 | 中国测绘科学研究院 | 一种狭长图斑分裂线的处理方法 |
CN107845139A (zh) * | 2017-10-18 | 2018-03-27 | 中国测绘科学研究院 | 一种狭长图斑分裂线的处理方法 |
CN109446992B (zh) * | 2018-10-30 | 2022-06-17 | 苏州中科天启遥感科技有限公司 | 基于深度学习的遥感影像建筑物提取方法及系统、存储介质、电子设备 |
CN109446992A (zh) * | 2018-10-30 | 2019-03-08 | 苏州中科天启遥感科技有限公司 | 基于深度学习的遥感影像建筑物提取方法及系统、存储介质、电子设备 |
CN111368603A (zh) * | 2018-12-26 | 2020-07-03 | 北京眼神智能科技有限公司 | 遥感图像的飞机分割方法、装置、可读存储介质及设备 |
CN111368603B (zh) * | 2018-12-26 | 2023-04-07 | 北京眼神智能科技有限公司 | 遥感图像的飞机分割方法、装置、可读存储介质及设备 |
CN109816749A (zh) * | 2019-02-14 | 2019-05-28 | 中国测绘科学研究院 | 图斑地图符号填充方法、装置、计算机设备及存储介质 |
CN109816749B (zh) * | 2019-02-14 | 2023-04-28 | 中国测绘科学研究院 | 图斑地图符号填充方法、装置、计算机设备及存储介质 |
CN110057449A (zh) * | 2019-04-29 | 2019-07-26 | 上海卫星工程研究所 | 基于视场分光高光谱探测的空中目标高度和速度计算方法 |
CN110570440A (zh) * | 2019-07-19 | 2019-12-13 | 武汉珈和科技有限公司 | 一种基于深度学习边缘检测的图像自动分割方法及装置 |
CN113643191B (zh) * | 2020-04-27 | 2023-08-15 | 北京蓝亚盒子科技有限公司 | 用于体素模型的平滑方法、装置及电子设备 |
CN113643191A (zh) * | 2020-04-27 | 2021-11-12 | 北京蓝亚盒子科技有限公司 | 用于体素模型的平滑方法、装置及电子设备 |
CN111582237A (zh) * | 2020-05-28 | 2020-08-25 | 国家海洋信息中心 | 基于atsm模型的高分影像飞机类型识别方法 |
CN111582237B (zh) * | 2020-05-28 | 2022-08-12 | 国家海洋信息中心 | 基于atsm模型的高分影像飞机类型识别方法 |
CN111881919B (zh) * | 2020-06-22 | 2024-02-20 | 中国人民解放军战略支援部队信息工程大学 | 一种基于追踪式格网剖分的线要素智能化简方法与装置 |
CN111881919A (zh) * | 2020-06-22 | 2020-11-03 | 中国人民解放军战略支援部队信息工程大学 | 一种基于追踪式格网剖分的线要素智能化简方法与装置 |
CN113255038A (zh) * | 2021-05-21 | 2021-08-13 | 杭州群核信息技术有限公司 | 一种基于直骨架的屋顶造体方法及系统 |
CN113255038B (zh) * | 2021-05-21 | 2022-05-17 | 杭州群核信息技术有限公司 | 一种基于直骨架的屋顶造体方法及系统 |
CN113240026B (zh) * | 2021-05-24 | 2022-03-25 | 中国科学院重庆绿色智能技术研究院 | 一种矢栅结合的内陆水面漂浮物批量识别提取方法 |
CN113240026A (zh) * | 2021-05-24 | 2021-08-10 | 中国科学院重庆绿色智能技术研究院 | 一种矢栅结合的内陆水面漂浮物批量识别提取方法 |
CN113628251B (zh) * | 2021-10-11 | 2022-02-01 | 北京中科金马科技股份有限公司 | 一种智慧酒店终端监测方法 |
CN113628251A (zh) * | 2021-10-11 | 2021-11-09 | 北京中科金马科技股份有限公司 | 一种智慧酒店终端监测方法 |
CN114299399A (zh) * | 2021-11-17 | 2022-04-08 | 北京航空航天大学 | 一种基于骨架线关系的飞机目标确认方法 |
CN114492212B (zh) * | 2022-04-15 | 2022-07-12 | 石家庄科林物联网科技有限公司 | 低压配电网动态增容方法、装置、终端及存储介质 |
CN114492212A (zh) * | 2022-04-15 | 2022-05-13 | 石家庄科林物联网科技有限公司 | 低压配电网动态增容方法、装置、终端及存储介质 |
CN116894282A (zh) * | 2023-09-07 | 2023-10-17 | 中国空气动力研究与发展中心计算空气动力研究所 | 空间点集与多连通网格区域拓扑关系的识别方法及系统 |
CN116894282B (zh) * | 2023-09-07 | 2023-11-24 | 中国空气动力研究与发展中心计算空气动力研究所 | 空间点集与多连通网格区域拓扑关系的识别方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN102004922B (zh) | 2012-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102004922B (zh) | 基于骨架特征的高分辨率遥感影像飞机提取方法 | |
Xu et al. | Reconstruction of scaffolds from a photogrammetric point cloud of construction sites using a novel 3D local feature descriptor | |
Orbay et al. | Beautification of design sketches using trainable stroke clustering and curve fitting | |
CN106803253B (zh) | 一种三维岩石图像裂缝识别方法 | |
Ji et al. | A novel simplification method for 3D geometric point cloud based on the importance of point | |
US20140192050A1 (en) | Three-dimensional point processing and model generation | |
Kim et al. | Deep-learning-based retrieval of piping component catalogs for plant 3D CAD model reconstruction | |
Xu et al. | Unsupervised segmentation of point clouds from buildings using hierarchical clustering based on gestalt principles | |
Lee et al. | Perceptual organization of 3D surface points | |
CN105741355A (zh) | 一种三角网格模型的块分割方法 | |
Miao et al. | Information fusion for urban road extraction from VHR optical satellite images | |
Tutzauer et al. | Semantic urban mesh enhancement utilizing a hybrid model | |
Hu et al. | Curve skeleton extraction from 3D point clouds through hybrid feature point shifting and clustering | |
Dehbi et al. | Robust and fast reconstruction of complex roofs with active sampling from 3D point clouds | |
Bayramoğlu et al. | Performance analysis of rule-based classification and deep learning method for automatic road extraction | |
Xu et al. | Segmentation of 3D outdoor scenes using hierarchical clustering structure and perceptual grouping laws | |
CN116662628B (zh) | 一种基于复杂薄壁零件的三维cad模型检索方法 | |
CN115619977A (zh) | 一种基于机载激光雷达的高位危岩监测方法 | |
Saglam et al. | An efficient object extraction with graph-based image segmentation | |
Lu et al. | A surface division method of parts mesh model for on-machine inspection | |
Das et al. | Generic object recognition using multiple representations | |
Han et al. | Automatic terrain debris recognition network based on 3d remote sensing data | |
Zhongyang et al. | Classification of LiDAR point cloud based on multiscale features and pointnet | |
Widyaningrum | Automatic object extraction from airborne laser scanning point clouds for digital base map production | |
Zhang et al. | Multi-Data UAV Images for Large Scale Reconstruction of Buildings |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20121226 Termination date: 20151201 |
|
EXPY | Termination of patent right or utility model |