CN108647567B - 基于条件证据理论的场景可识别性分析方法 - Google Patents
基于条件证据理论的场景可识别性分析方法 Download PDFInfo
- Publication number
- CN108647567B CN108647567B CN201810271128.XA CN201810271128A CN108647567B CN 108647567 B CN108647567 B CN 108647567B CN 201810271128 A CN201810271128 A CN 201810271128A CN 108647567 B CN108647567 B CN 108647567B
- Authority
- CN
- China
- Prior art keywords
- scene
- identifiability
- feature
- ground
- node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及基于条件证据理论的场景可识别性分析方法,步骤包括:获取目标及其所在场景的DSM和DOM,并设定成像参数;选取显著地物作为场景的节点;定量评估各个地物在不同观察角下的可识别性程度,以此作为场景中各节点的基本信度分配;通过地物轮廓点数定义表征各节点间相互支撑度的条件信度函数,利用证据理论,推理、融合各个节点信息,得到整个场景的可识别性分析结果。本发明充分利用了场景中的多个显著地物,能够以量化形式判断场景在哪个视角下能够达到最佳的场景识别效果,解决了对场景进行可识别性评估的问题,对任务规划有着重大意义。
Description
技术领域
本发明属于遥感应用技术领域,具体涉及一种基于条件证据理论的场景可识别性分析方法。
背景技术
光学图像自动目标识别广泛采用基于模板匹配的方法,其中模板是目标匹配与识别的关键。常用做法是在进行任务规划时根据飞行航迹、传感器参数以及目标的地理位置一次性制备完成该目标该次任务所需模板,并存储在数据库中以备实时调用。因此,模板的准确性和有效性至关重要。评估目标或场景在不同角度下的可识别性程度正是用来在任务规划时确定飞行航迹和传感器观察角度,选择可识别性程度较高的角度作为传感器观察方向,制备该角度下的目标或场景轮廓模板,通过模板与传感器获取的实时图像进行匹配,可以很好地完成目标识别的任务。
通常,评估的数据基础是目标及其所在场景的数字表明模型 (Digital SurfaceModel,DSM)和数字正射影像(Digital Orthophoto Map, DOM),其中DSM数据一般以规则矩形网格形式记录了所有地面物体的高程和位置信息,而DOM具有丰富的纹理和地物细节信息。刘洋等基于DSM和DOM,在给定成像参数的条件下,对建筑物进行了三维建模,并制备了前视模板。现有方法一般只是在某个给定角度下对目标或场景进行分析,没有分析不同观察角度下目标或场景的可识别性程度差异。
识别过程关注的一般是某个目标,但目标必然处在一定场景之中,其周围一般包含一些具有显著形状或灰度特征的其它地物。相较于单个目标而言,场景蕴含更高的信息量,综合利用场景内的所有显著地物可以辅助解决重复模式干扰和目标轮廓不完整问题。基于此,近年来,目标识别领域的关注焦点也从单个地物上升为场景。单个目标的可识别性评估相对简单,一般从遮挡和独特性等方面着手。当对象从单个地物变为场景时,情况将变得复杂起来,因为场景可识别性程度应该由该视角下的所有地物共同决定,场景可识别性分析方法要能够体现场景中各地物间的相互支撑程度。
发明内容
本发明的目的是提供一种基于条件证据理论的场景可识别性分析方法,从实时图像与场景模板轮廓匹配的角度对场景的可识别性程度进行分析,判断在哪个视角下能够达到最佳的场景识别效果,为任务规划提供依据,解决对场景进行可识别性评估的问题。
本发明所采用的技术方案为:
基于条件证据理论的场景可识别性分析方法,其特征在于:
包括以下步骤:
第一步:获取目标及其所在场景的DSM和DOM,并设定成像参数;
第二步:选取显著地物作为场景的节点;
第三步:定量评估各个地物在不同观察角下的可识别性程度,以此作为场景中各节点的基本信度分配;
第四步:通过地物轮廓点数定义表征各节点间相互支撑度的条件信度函数,利用证据理论,推理、融合各个节点信息,得到整个场景的可识别性分析结果。
第一步中,设定的成像参数包括传感器与目标及其所在场景的水平距离、传感器高度和观察角度。
第三步中,定量评估各个地物在不同观察角下可识别性程度的指标包括尺度显著性、形状唯一性和可视性,加权融合这三个指标得到单个地物的可识别性评估结果。
尺度显著性使用该地物在视场中的成像尺寸A0来衡量,其定量评估包括以下步骤:
假定当地物成像尺寸大于阈值AT时,其尺度显著性为1,则地物尺度显著性系数Parea的计算式如下:
对于非封闭平面地物,A0定义为填充区域的整体面积。
形状唯一性依赖于目标模板轮廓在实时图像轮廓中的独特性,其定量评估包括以下步骤:
使用DSM建立待评估地物及其所在场景的三维模型,然后根据透视投影成像模型生成二者的前视轮廓图像,并对其进行轮廓线相关运算,最后检测运算结果的局部最高峰峰值P0和次高峰峰值P1,使用公式(2)计算该地物的形状唯一性指标Pshape:
Pshape=(P0-P1)/P0 (2)
可视性通过地物受遮挡的程度体现,其定量评估包括以下步骤:
计算可视性指标:
Pseen=S1/S0 (3)
其中,S0为不考虑遮挡时的地物成像面积,S1为实际情况下地物的成像面积。
可识别性综合系数Pt由尺度显著性、形状唯一性和可视性三个指标加权得到,如公式(4)和公式(5)所示,是可识别性评估的最终结果:
Pt=k1Parea+k2Pshape+k3Pseen (4)
k1+k2+k3=1 (5)
利用该系数在设定成像参数的条件下,遍历观察角θ,对选取的地物进行评估,在得到各个角度下的系数Pt后,判定该地物在哪些角度下具备较高的可识别性,若该地物各个视角下的Pt都小于经验阈值 PTh,则说明该地物不具有可识别性。
第四步具体包括以下步骤:
将单个地物的可识别性综合系数视为各节点的原始基本信度分配,于是N个节点的原始信度为{m(ti),i=1,...,N};
考虑节点地物ti,以其形心为中心,在T中按照Rs×Cs截取重叠部分Tsub;
假定Tsub中共包含k+1个地物{ti,tj,j=1,...,k},统计Tsub中各地物的轮廓点数{ni,nj,j=1,...,k},其中ni是地物ti的轮廓点数,则场景中其它各地物对当前地物ti的条件支撑信度可以用条件基本信度函数表示如下:
由于mp(ti)序列与m(ti)是通过不同识别框架下的信度赋值推理得到的关于节点ti的状态信度,为满足在识别框架下总信度为1 的要求,在进行证据组合之前需要对其分别进行求和取平均处理,得到整个场景系统下地物ti的基本信度序列为:
本发明具有以下优点:
本发明在获取目标及其所在场景的DSM和DOM,并设定成像参数后,首先从场景保障数据中选取一定数量的显著地物作为场景的节点;然后,从尺度显著性、形状唯一性和可视性三个方面定量评估各个地物在不同观察角下的可识别性程度,以此作为场景中各节点的基本信度分配;最后,通过地物轮廓点数定义表征各节点间相互支撑度的条件信度函数,利用证据理论,推理、融合各个节点信息,得到整个场景的可识别性分析结果,充分利用了场景中的多个显著地物,能够判断场景在哪个视角下能够达到最佳的场景识别效果,对任务规划有着重大意义。
附图说明
图1所示为本发明提出的场景可识别性分析流程图;
图2所示为本发明中的场景S1地物选择示意图;
图3所示为本发明中在某观察角度下场景S1各节点前视轮廓示意图;
图4所示为本发明中的条件信度参数模型下的证据网络图;
图5所示为本发明中的场景S1部分地物可识别性评估结果示意图;
图6所示为本发明中的场景S1不同观察角度下可识别性程度分析结果图。
具体实施方式
下面结合具体实施方式对本发明进行详细的说明。
本发明涉及的基于条件证据理论的场景可识别性分析方法,首先获取目标及其所在场景的DSM和DOM,并设定成像参数,设定的成像参数包括传感器与目标及其所在场景的水平距离、传感器高度和观察角度;选取显著地物作为场景的节点;然后定量评估各个地物在不同观察角下的可识别性程度,以此作为场景中各节点的基本信度分配;最后通过地物轮廓点数定义表征各节点间相互支撑度的条件信度函数,利用证据理论,推理、融合各个节点信息,得到整个场景的可识别性分析结果。
定量评估各个地物在不同观察角下可识别性程度的指标包括尺度显著性、形状唯一性和可视性,加权融合这三个指标得到单个地物的可识别性评估结果。
尺度显著性使用该地物在视场中的成像尺寸A0来衡量,其定量评估包括以下步骤:
假定当地物成像尺寸大于阈值AT时,其尺度显著性为1,则地物尺度显著性系数Parea的计算式如下:
对于非封闭平面地物,A0定义为填充区域的整体面积。
形状唯一性依赖于目标模板轮廓在实时图像轮廓中的独特性,其定量评估包括以下步骤:
使用DSM建立待评估地物及其所在场景的三维模型,然后根据透视投影成像模型生成二者的前视轮廓图像,并对其进行轮廓线相关运算,最后检测运算结果的局部最高峰峰值P0和次高峰峰值P1,使用公式(2)计算该地物的形状唯一性指标Pshape:
Pshape=(P0-P1)/P0 (2)
可视性通过地物受遮挡的程度体现,其定量评估包括以下步骤:
计算可视性指标:
Pseen=S1/S0 (3)
其中,S0为不考虑遮挡时的地物成像面积,S1为实际情况下地物的成像面积。
可识别性综合系数Pt由尺度显著性、形状唯一性和可视性三个指标加权得到,如公式(4)和(5)所示,是可识别性评估的最终结果:
Pt=k1Parea+k2Pshape+k3Pseen (4)
k1+k2+k3=1 (5)
利用该系数在设定成像参数的条件下,遍历观察角θ,对选取的地物进行评估,在得到各个角度下的系数Pt后,判定该地物在哪些角度下具备较高的可识别性,若该地物各个视角下的Pt都小于经验阈值 PTh,则说明该地物不具有可识别性。
所述方法最后通过地物轮廓点数定义表征各节点间相互支撑度的条件信度函数,利用证据理论,推理、融合各个节点信息,得到整个场景的可识别性分析结果,具体由以下步骤实现:
将单个地物的可识别性综合系数视为各节点的原始基本信度分配,于是N个节点的原始信度为{m(ti),i=1,...,N};
考虑节点地物ti,以其形心为中心,在T中按照Rs×Cs截取重叠部分Tsub;
假定Tsub中共包含k+1个地物{ti,tj,j=1,...,k},统计Tsub中各地物的轮廓点数{ni,nj,j=1,...,k},其中ni是地物ti的轮廓点数,则场景中其它各地物对当前地物ti的条件支撑信度可以用条件基本信度函数表示如下:
由于mp(ti)序列与m(ti)是通过不同识别框架下的信度赋值推理得到的关于节点ti的状态信度,为满足在识别框架下总信度为1 的要求,在进行证据组合之前需要对其分别进行求和取平均处理,得到整个场景系统下地物ti的基本信度序列为:
以下结合附图及实施例对本发明的技术方案做具体说明:
图1所示为本发明提出的基于条件证据理论的场景可识别性分析方法整体流程图。以传感器到目标的视线与正北方向的夹角作为观察角θ(θ∈[0°,360°]),顺时针方向为正。显然,在不同观察角下目标及场景的三维形态会发生很大变化,因而具有不同的可识别性程度。通过构建地物及场景在某视角下的三维形状模型,就能够通过模拟传感器的成像过程来评估地物间的相互关系。通过遍历360°的观察角,就可以评估得出各个角度下的可识别性结果。如图1所示,在场景中选取一定数量的显著地物后,方法首先从尺度显著性、形状唯一性和可视性三个方面评估单个地物的可识别性,然后利用各地物的评估结果,基于条件证据理论对场景可识别性程度进行分析,该方法能够融合各地物信息,从轮廓匹配的角度给出定量的场景可识别性分析结果。
图2所示为本实施例场景S1中的显著地物选择示意图,以航站楼为目标,图2(a)为DSM数据,通过该数据人工选取了航站楼和其它5个建筑物。图2(b)为DOM,通过该数据人工选取了道路交叉口、弯曲道路和机场跑道等地物。(显著地物是人工选取,显著地物选取后,后续的评估是算法自动完成)成像参数设定如下:传感器与目标距离8km、高度500m、视场角9.2°×3.4°。将每个地物视为场景的一个节点,节点位置由地物的形心表示,于是,场景S1各地物节点在观察角为135°时的前视轮廓如附图3所示,其中圆圈为节点形心位置。前视轮廓图即是场景在该观察角度下的轮廓模板,它是通过模拟传感器的透视投影成像过程,对选取的地物进行虚拟成像得到,与传感器获取的实时图像轮廓具有一致性,本发明正是通过分析不同观察角度下的场景前视轮廓图来评估其可识别性程度。
由于场景可识别性程度由该场景中所有显著地物共同决定,因此,在选取了显著地物后,本发明首先通过在不同观察角下评估得到各地物节点的可识别性程度,然后利用证据理论,推理、融合各个节点信息,得到整个场景的可识别性分析结果。
地物可识别性评估是场景分析的基础。本发明设计了三个指标:尺度显著性、形状唯一性、可视性。加权融合这三个指标就可以得到单个地物的可识别性评估结果。
通常,如果地物在图像中所占的尺寸就越大,就越有利于识别。因此,尺度显著性可以使用该地物在视场中的成像尺寸A0来衡量。在设定成像参数后,不妨假定当地物成像尺寸大于阈值AT(一般可取 AT=128×128)时,其尺度显著性为1,则地物尺度显著性系数Parea的计算式如下:
需要特别指出的是,对于非封闭平面地物,如道路交叉口、河岸线等,A0定义为填充区域的整体面积。
基于轮廓模板的目标识别主要依赖于目标模板轮廓在实时图像轮廓中的独特性,形状唯一性指标正是用来衡量这种独特性程度。本发明首先使用DSM建立待评估地物及其所在场景的三维模型,然后根据透视投影成像模型生成二者的前视轮廓图像,并对其进行轮廓线相关运算,最后检测运算结果的局部最高峰峰值P0和次高峰峰值P1,使用公式(2)计算该地物的形状唯一性指标Pshape:
Pshape=(P0-P1)/P0 (2)
在前视视角下,待评估地物可能被场景中其它地物遮挡,即使该地物尺寸较大,遮挡也可能导致其在实时图像中的可见面积很小,而且遮挡也会改变其在图像中的形状唯一性。定义可视性指标来表征待评估地物受遮挡的程度,如式(3)所示:
Pseen=S1/S0 (3)
其中S0为不考虑遮挡时的地物成像面积,S1为实际情况下地物的成像面积。
可识别性综合系数Pt就是由以上三个指标加权得到,如公式(4) 和公式(5)所示,它是可识别性评估的最终结果。
Pt=k1Parea+k2Pshape+k3Pseen (4)
k1+k2+k3=1 (5)
利用该系数,可以在设定成像参数的条件下,以一定间隔遍历观察角θ,对选取的地物进行评估,在得到各个角度下的系数Pt后,便可判定该地物在哪些角度下具备较高的可识别性。若该地物各个视角下的Pt都小于经验阈值PTh(一般取0.5),则说明该地物不具有可识别性。
场景是多个地物的融合,场景中的所有地物共同决定了该场景的可识别性程度。由于地物提取存在误差,各地物提供的信息同样存在一定的不完整性和不精确性。分析场景可识别性时需要考虑到这些不确定性信息,以达到尽可能准确度量的目的。根据各显著地物的可识别性综合系数,本发明利用条件证据理论设计了一种场景可识别性分析方法。
证据理论采用信度函数作为度量,通过对事件的概率加以约束以建立信度函数而不必说明精确的难以获得的概率,当信度函数限制为严格的概率时,证据理论就退化为概率论。
设Θ表示某命题所有可能方案组成的集合,称其为该命题的识别框架。考虑到在场景中选择的地物个数不可能无限多,本发明中Θ的元素是有限的,即Θ={θ1,θ2,L,θN}。Θ中所有可能集合用幂集合2Θ来表示。
在识别框架Θ中,如果函数m:2Θ→[0,1]满足条件:1)m(φ)=0;2)则称函数m为信度指派函数。m(A)为A的基本信度分配,表示对命题A的信任程度。基本信度分配m与概率论中的概率分布函数p不同,因为m定义在2Θ上,而p定义在Θ上。
根据基本信度分配函数m,定义Bel:2Θ→[0,1]
称该函数为Θ上的信任函数,且Bel(φ)=0,Bel(Θ)=1。
若识别框架Θ的一个子集为A,具有m(A)>0,则称A为信任函数Bel的焦元,所有焦元的并称为核。相应的{A,m(A)}称为一条证据。设Bel1和Bel2是同一识别框架Θ的两个信任函数,m1和m2分别是其对应的信度指派函数,焦元分别为A1,...,Ak和B1,...,Br,则m1和m2的组合公式为
当研究真实系统时,常通过证据网络结构模型分析系统各节点,并使用条件信度规则描述各节点之间的支撑程度,然后基于部分节点的信度信息,推理得到其它节点的状态信息。这就是以条件信度函数为参数模型的证据网络推理。
其中Bel(B|A)表示在给定A的情况下,B的信任函数。
经过研究发现,如果将条件证据网络中的元素定义在不同识别框架之下将会有更加广泛的应用,如图4所示,设网络结构和各条件信任函数已知,即此证据网络的节点集合为K={X,Y,Z},有向弧集合为A={(Y,X),(Z,X)},条件信任函数为Bel(x|y),Bel(x|z),设定 X,Y,Z的识别框架为ΘX,ΘY,ΘZ,x∈ΘX,y∈ΘY,z∈ΘZ。
假设已知Y的状态为y0∈ΘY,Z的状态为z0∈ΘZ,那么X的状态信息可以由y0,z0以及条件信任函数Bel(x|y),Bel(x|z)得到。首先将Y和Z的取值y0,z0转化到证据理论的信度表示框架下;然后由 y0与Bel(x|y)计算BelX(x)|y0,由z0与Bel(x|z)计算BelX(x)|z0;最后将BelX(x)|y0与BelX(x)|z0进行合成,得到X的证据网络推理结果。
公式(10)以条件基本可信度函数表示,同理用条件信任函数表示为:
根据以条件信度函数为参数模型的证据网络推理理论,场景可识别性分析方法的关键是条件基本信度函数的构造。因为目标识别常用轮廓匹配方法,故一般可以认为,地物轮廓点数越多,则越有利于模板轮廓与实时图像轮廓的匹配,本发明从这一点出发构造条件基本信度函数。假定场景模板T的尺寸是Rt×Ct,实时图像的尺寸是Rs×Cs,从场景中提取的节点分别是{t1,t2,...,tN},总数为N,各节点的识别框架分别为将单个地物的可识别性综合系数视为各节点的原始基本信度分配,于是N个节点的原始信度为{m(ti),i=1,...,N}。
考虑节点地物ti,以其形心为中心,在T中按照Rs×Cs截取重叠部分Tsub,地物形心位置不同,Tsub的尺寸也不同,但不会大于Rs×Cs。按照实时图尺寸来截取的原因是进行匹配识别时使用的是实时图和场景前视轮廓的重叠部分,所以,在当前匹配点,超出实时图尺寸的场景部分对当前匹配没有任何支撑作用。假定Tsub中共包含k+1个地物{ti,tj,j=1,...,k},由于Tsub是截取得到,其包含的地物可能只是原始地物的一部分,统计Tsub中各地物的轮廓点数{ni,nj,j=1,...,k},其中ni是地物ti的轮廓点数。则场景中其它各地物对当前地物ti的条件支撑信度可以用条件基本信度函数表示如下:
于是场景中其它地物对当前地物ti的支撑信度序列为然后对mp(ti)序列进行归一化,不妨仍将其表示为由于mp(ti)序列与m(ti)是通过不同识别框架下的信度赋值推理得到的关于节点ti的状态信度,为满足在识别框架下总信度为1的要求,在进行证据组合之前需要对其分别进行求和取平均处理,得到整个场景系统下地物ti的基本信度序列为最后按照多条证据依次逐对进行组合的原则就可以推理得到场景中地物ti的最终状态信度
综上所述,本发明设计的场景可识别性分析方法具体步骤包括:
Input:传感器与场景的水平距离,传感器高度,观察角度θ,场景前视轮廓图像T的尺寸Rt×Ct,实时图像尺寸Rs×Cs,在场景中选取的显著地物{t1,t2,...,tN},总数N。
Step 1:将单个地物可识别性评估结果视为各节点的原始基本信度分配,N个节点的原始信度为{m(ti),i=1,...,N};
Step 2:对于地物节点ti,以其形心为中心,在T中按照实时图像尺寸Rs×Cs截取重叠部分Tsub,假定Tsub中共包含k+1个地物 {ti,tj,j=1,...,k},统计Tsub中各地物前视轮廓的点数{ni,nj,j=1,...,k};
以一定间隔遍历观察角度θ,就可以得到在各个角度下的场景可识别性分析结果,由此便可判定场景在哪些观察角度下具有较高的可识别性。
在场景S1中提取了11个典型地物,关注的目标是航站楼。设定传感器与地物距离为10km,传感器高度为1100m,k1=0.4,k2=0.2, k3=0.4,以15°间隔遍历360°的观察角范围,可以得到地物在各个角度下的可识别性综合系数。图5给出了目标及目标下侧道路交叉口的评估结果示意图,以正北方向为0度观察角。在该场景中,目标为航站楼(图5(a)),其海拔较高,轮廓特征明显,可识别性综合系数均大于0.5;而对于目标下侧道路交叉口(图5(b)),由于其正北方向存在建筑物遮挡,故在0°~90°和300°~360°的观察角范围内,可识别性综合系数较低。
对于场景S1,以单地物可识别性综合系数为各地物节点原始信度赋值,按照本发明设计的场景分析方法,计算得到各地物在不同观察角下的最终信度,最后以各地物轮廓点数占总轮廓点数的比例作为权值,加权融合得到场景可识别性分析结果,如图6所示。设定结果序列的均值为阈值,高于阈值表示场景的可识别性程度较高。从图6 中可以看出,对于该场景,可识别性较高的观察角范围为 {[7.5°~90°]U[127.5°~142.5°]U[172.5°~277.5°]},其中当观察角度为 210°时,场景可识别性程度最高。
本发明的内容不限于实施例所列举,本领域普通技术人员通过阅读本发明说明书而对本发明技术方案采取的任何等效的变换,均为本发明的权利要求所涵盖。
Claims (2)
1.基于条件证据理论的场景可识别性分析方法,其特征在于:
包括以下步骤:
第一步:获取目标及其所在场景的DSM和DOM,并设定成像参数;
第二步:选取显著地物作为场景的节点;
第三步:定量评估各个地物在不同观察角下的可识别性程度,以此作为场景中各节点的基本信度分配;
定量评估各个地物在不同观察角下可识别性程度的指标包括尺度显著性、形状唯一性和可视性,加权融合这三个指标得到单个地物的可识别性评估结果;
尺度显著性使用该地物在视场中的成像尺寸A0来衡量,其定量评估包括以下步骤:
假定当地物成像尺寸大于阈值AT时,其尺度显著性为1,则地物尺度显著性系数Parea的计算式如下:
对于非封闭平面地物,A0定义为填充区域的整体面积;
形状唯一性依赖于目标模板轮廓在实时图像轮廓中的独特性,其定量评估包括以下步骤:
使用DSM建立待评估地物及其所在场景的三维模型,然后根据透视投影成像模型生成二者的前视轮廓图像,并对其进行轮廓线相关运算,最后检测运算结果的局部最高峰峰值P0和次高峰峰值P1,使用公式(2)计算该地物的形状唯一性指标Pshape:
Pshape=(P0-P1)/P0 (2);
可视性通过地物受遮挡的程度体现,其定量评估包括以下步骤:
计算可视性指标:
Pseen=S1/S0 (3)
其中,S0为不考虑遮挡时的地物成像面积,S1为实际情况下地物的成像面积;
可识别性综合系数Pt由尺度显著性、形状唯一性和可视性三个指标加权得到,如公式(4)和公式(5)所示,是可识别性评估的最终结果:
Pt=k1Parea+k2Pshape+k3Pseen (4)
k1+k2+k3=1 (5)
利用该系数在设定成像参数的条件下,遍历观察角θ,对选取的地物进行评估,在得到各个角度下的系数Pt后,判定该地物在哪些角度下具备较高的可识别性,若该地物各个视角下的Pt都小于经验阈值PTh,则说明该地物不具有可识别性;
第四步:通过地物轮廓点数定义表征各节点间相互支撑度的条件信度函数,利用证据理论,推理、融合各个节点信息,得到整个场景的可识别性分析结果,具体包括以下步骤:
将单个地物的可识别性综合系数视为各节点的原始基本信度分配,于是N个节点的原始信度为{m(ti),i=1,...,N};
考虑节点地物ti,以其形心为中心,在T中按照Rs×Cs截取重叠部分Tsub;
假定Tsub中共包含k+1个地物{ti,tj,j=1,...,k},统计Tsub中各地物的轮廓点数{ni,nj,j=1,...,k},其中ni是地物ti的轮廓点数,则场景中其它各地物对当前地物ti的条件支撑信度可以用条件基本信度函数表示如下:
由于mp(ti)序列与m(ti)是通过不同识别框架下的信度赋值推理得到的关于节点ti的状态信度,为满足在识别框架Θti下总信度为1的要求,在进行证据组合之前需要对其分别进行求和取平均处理,得到整个场景系统下地物ti的基本信度序列为:
2.根据权利要求1所述的基于条件证据理论的场景可识别性分析方法,其特征在于:
第一步中,设定的成像参数包括传感器与目标及其所在场景的水平距离、传感器高度和观察角度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810271128.XA CN108647567B (zh) | 2018-03-29 | 2018-03-29 | 基于条件证据理论的场景可识别性分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810271128.XA CN108647567B (zh) | 2018-03-29 | 2018-03-29 | 基于条件证据理论的场景可识别性分析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108647567A CN108647567A (zh) | 2018-10-12 |
CN108647567B true CN108647567B (zh) | 2021-10-29 |
Family
ID=63744768
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810271128.XA Active CN108647567B (zh) | 2018-03-29 | 2018-03-29 | 基于条件证据理论的场景可识别性分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108647567B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101726298A (zh) * | 2009-12-18 | 2010-06-09 | 华中科技大学 | 一种用于前视导航制导的立体地标选择和参考图制备方法 |
CN101833104A (zh) * | 2010-04-27 | 2010-09-15 | 北京航空航天大学 | 一种基于多传感器信息融合的三维可视化导航方法 |
CN103246732A (zh) * | 2013-05-10 | 2013-08-14 | 合肥工业大学 | 一种在线Web新闻内容的抽取方法及系统 |
CN106570851A (zh) * | 2016-10-27 | 2017-04-19 | 大连理工大学 | 一种基于加权分配d‑s证据理论的显著图融合方法 |
CN106600574A (zh) * | 2016-08-25 | 2017-04-26 | 中国科学院遥感与数字地球研究所 | 一种基于遥感影像与高程数据的滑坡提取方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8582871B2 (en) * | 2009-10-06 | 2013-11-12 | Wright State University | Methods and logic for autonomous generation of ensemble classifiers, and systems incorporating ensemble classifiers |
CN104006802B (zh) * | 2014-05-06 | 2016-04-27 | 国家基础地理信息中心 | 一种基于信息融合的地表三维变化检测方法及系统 |
CN106778883A (zh) * | 2016-12-23 | 2017-05-31 | 贵州电网有限责任公司电力科学研究院 | 一种基于模糊集合的证据理论智能巡检信息融合方法 |
-
2018
- 2018-03-29 CN CN201810271128.XA patent/CN108647567B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101726298A (zh) * | 2009-12-18 | 2010-06-09 | 华中科技大学 | 一种用于前视导航制导的立体地标选择和参考图制备方法 |
CN101833104A (zh) * | 2010-04-27 | 2010-09-15 | 北京航空航天大学 | 一种基于多传感器信息融合的三维可视化导航方法 |
CN103246732A (zh) * | 2013-05-10 | 2013-08-14 | 合肥工业大学 | 一种在线Web新闻内容的抽取方法及系统 |
CN106600574A (zh) * | 2016-08-25 | 2017-04-26 | 中国科学院遥感与数字地球研究所 | 一种基于遥感影像与高程数据的滑坡提取方法 |
CN106570851A (zh) * | 2016-10-27 | 2017-04-19 | 大连理工大学 | 一种基于加权分配d‑s证据理论的显著图融合方法 |
Non-Patent Citations (2)
Title |
---|
Building recognition based on big template in FLIR images;Jiangwei Zhang 等;《SPIE》;20141231;第92441 T-1 至 92441 T-9 * |
基于神经网络和D-S证据理论的气液两相流流型识别方法;周云龙 等;《化工学报》;20060331;第57卷(第3期);第607-613页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108647567A (zh) | 2018-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhou et al. | Seamless fusion of LiDAR and aerial imagery for building extraction | |
McGlone et al. | Projective and object space geometry for monocular building extraction | |
CN103377476B (zh) | 使用三维地理弧的多模型数据的图像配准 | |
Sportouche et al. | Extraction and three-dimensional reconstruction of isolated buildings in urban scenes from high-resolution optical and SAR spaceborne images | |
CN109238239B (zh) | 基于航空摄影的数字测量三维建模方法 | |
Champion et al. | 2D building change detection from high resolution satelliteimagery: A two-step hierarchical method based on 3D invariant primitives | |
Nyaruhuma et al. | Verification of 2D building outlines using oblique airborne images | |
CN107615334A (zh) | 物体识别装置以及物体识别系统 | |
dos Santos et al. | Extraction of building roof boundaries from LiDAR data using an adaptive alpha-shape algorithm | |
CN110889899B (zh) | 一种数字地表模型的生成方法及装置 | |
CN111133477B (zh) | 三维重建方法、装置、系统和存储介质 | |
Kwak | Automatic 3D building model generation by integrating LiDAR and aerial images using a hybrid approach | |
Guo et al. | Extraction of dense urban buildings from photogrammetric and LiDAR point clouds | |
You et al. | A quality prediction method for building model reconstruction using LiDAR data and topographic maps | |
CN113538501A (zh) | 低空图像dsm生成建筑物边缘精细化方法 | |
Matsuoka et al. | Extraction of urban information for seismic hazard and risk assessment in Lima, Peru using satellite imagery | |
Zhang et al. | 3D urban buildings extraction based on airborne lidar and photogrammetric point cloud fusion according to U-Net deep learning model segmentation | |
Rönnholm | Registration quality-towards integration of laser scanning and photogrammetry | |
Piltz et al. | Volume based DTM generation from very high resolution photogrammetric DSMs | |
Tarsha Kurdi et al. | Comparison of LiDAR building point cloud with reference model for deep comprehension of cloud structure | |
Motayyeb et al. | Fusion of UAV-based infrared and visible images for thermal leakage map generation of building facades | |
Yoo et al. | True orthoimage generation by mutual recovery of occlusion areas | |
CN116147567B (zh) | 基于多元数据融合的国土测绘方法 | |
CN108647567B (zh) | 基于条件证据理论的场景可识别性分析方法 | |
Koc-San et al. | A model-based approach for automatic building database updating from high-resolution space imagery |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |