CN115457351B - 一种多源信息融合不确定性判别方法 - Google Patents
一种多源信息融合不确定性判别方法 Download PDFInfo
- Publication number
- CN115457351B CN115457351B CN202210869911.2A CN202210869911A CN115457351B CN 115457351 B CN115457351 B CN 115457351B CN 202210869911 A CN202210869911 A CN 202210869911A CN 115457351 B CN115457351 B CN 115457351B
- Authority
- CN
- China
- Prior art keywords
- classifier
- target
- value
- distance
- bpa
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 230000004927 fusion Effects 0.000 title claims abstract description 26
- 238000001514 detection method Methods 0.000 claims abstract description 12
- 239000011159 matrix material Substances 0.000 claims description 17
- 238000011156 evaluation Methods 0.000 claims description 14
- 238000012360 testing method Methods 0.000 claims description 9
- 238000005259 measurement Methods 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 6
- 230000007613 environmental effect Effects 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 5
- 238000012850 discrimination method Methods 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 238000005286 illumination Methods 0.000 claims description 4
- 230000008030 elimination Effects 0.000 claims description 3
- 238000003379 elimination reaction Methods 0.000 claims description 3
- 230000007704 transition Effects 0.000 claims description 3
- 238000010276 construction Methods 0.000 abstract description 4
- 230000007246 mechanism Effects 0.000 description 6
- 239000000571 coke Substances 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/143—Sensing or illuminating at different wavelengths
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/766—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/814—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level using belief theory, e.g. Dempster-Shafer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Abstract
本发明公开了一种多源信息融合不确定性判别方法,包括在分析目标跟踪过程中目标距离不断变化,研究可见光传感器、红外传感器及激光雷达三个独传感器的灰度和熵特征、颜色、形状四维的独立特征,并通过建立低空目标动态识别问题描述基础上,分析传感器探测距离适应性;基于分类器识别特性及特征空间分布规律提出BPA基本构造方法;基于SVM的多源分类器融入D‑S证据理论实现了多传感器融合识别框架;运用回归方法将离散距离BPA结果拟合出了连续距离信度分配策略;提出了广域目标搜索系统搜索状态及跟踪状态切换问题。解决了野外环境大范围飞行目标识别,存在单一传感器随距离大范围变化适应性问题,以及多个传感器在不同距离条件下识别不确定问题。
Description
技术领域
本发明涉及一种信息融合判别方法,具体为一种多源信息融合不确定性判别方法,属于信息融合处理技术领域。
背景技术
广域目标搜索及多传感器融合识别过程中,不同传感器探测范围有差异,表现出在不同探测范围下各传感器识别的有效性不同;同时,目标距离连续变化,不同成像机理传感器及其成像特性具有目标探测的距离适应性。因此,低空空域目标多传感器融合应用时,需考虑各个传感器识别信任度及其随目标距离变化规律;不同探测距离下信任度分配亦受外界干扰,且不同传感器信任度边界重叠,从而导致在多传感器融合判别时具有模糊性。
广域目标搜索系统的机器人子系统(空中无人机群及地面无人车等)具有搜索和跟踪两种工作状态,对应目标识别及目标跟踪过程;由于目标识别过程具有模糊性,从而导致两种工作状态的判别过程具有不确定性;这是一个基于较强不确定数据的系统工况判断问题,需要系统工作状态在搜寻、捕获、跟踪之间切换;为了更好引导系统在搜索态和跟踪态切换,需要设计一种状态判别及切换机制;由于目标识别过程的不确定性,状态判别机制应综合考虑在搜索范围内(信息粒度内)目标捕获概率和信息熵等多种不确定联合评价最优为原则。
发明内容
本发明的目的就在于为了解决上述至少一个技术问题而提供一种多源信息融合不确定性判别方法,首先建立低空目标动态识别问题描述,分析传感器探测距离适应性问题,进而基于分类器识别特性及特征空间分布规律提出BPA基本构造方法;依据典型距离条件下识别实验构造BPA动态分配方法及回归评价机制,实现低空空域目标距离连续变化条件下多传感器信任度分配;提出识别及跟踪联合评价指标信息粒度,以及基于粒计算的目标搜索及跟踪状态切换机制。
本发明通过以下技术方案来实现上述目的:一种多源信息融合不确定性判别方法,包括以下步骤
步骤一、独立特征分析,采集不同光照条件下目标典型离散距离下图像样本,依据目标先验知识进行图像预处理,并自动标识疑似目标,提取样本疑似目标的灰度、熵、颜色以及形状的四维独立特征,并进行分析;
步骤二、多源信息采集及目标信息提取,对于红外和可见光系统的灰度值,采用灰度均值对比度衡量目标窗口内的平均灰度和相邻背景区域的差别,以此区分远距离微小目标;
步骤三、构造基于信度回归的多源信息融合识别框架,识别框架下的证据;
步骤四、构造BPA函数,采用识别算法构造分类器,通过对分类器同一模式的分类倾向求差值来得到分类器分类能力的差异度量值,进而定义分类器的可信度向量,依据分类器可信度评价方法,给出分类器的分布规律,并结合各分类器识别精度构造BPA函数;
步骤五、建立BBR模型,不同距离下目标的显著性特征不同,远距离条件下局部灰度均值对比度和局部熵是目标的显著性特征;近距离条件下色度矩和形状度是目标的显著性特征;
步骤六、联合评价粒度广域目标搜索判别,首先,其值与目标搜索范围有关,当搜索区域靠近或涵盖目标落点先验概率高区域,其搜索信息粒度升高;同时,其值与传感器分辨率及捕获概率有关,当传感器分辨率高、区域条件下捕获概率高时,其搜索信息粒度值升高;最后,其值与分类器识别的目标相似度有关,当识别目标相似度高,其信息粒度将升高。
作为本发明再进一步的方案:所述步骤一中,对于样本疑似目标四维独立特征的提取,选用可见光传感器、红外传感器及激光雷达三个独立传感器分别测量。
作为本发明再进一步的方案:所述步骤二中,灰度值的定义为:
其中,和/>分别为当前像素g(x,y)所在内窗口和外窗口中所有像素的平均灰度;Nin和Nout为待处理像素g(x,y)的内窗口Win(x,y)和外窗口Wout(x,y)中的像素数;g(k,l)为图像中第k行第l列像素的灰度值;
对于红外和可见光系统的局部熵,刻画图像中局部区域灰度变化的剧烈程度,其定义为:
式中,为对于可见光系统测量的色度矩,目标颜色信息主要分布在低阶色度矩,其中,一阶色度矩描述平均颜色,二阶色度矩描述颜色方差,三阶色度矩描述颜色的偏移性。其定义如下:
式中:M1、M2、M3为一、二、三阶色度矩;对于激光雷达测量的形状度,形状特征主要包括形状度、长宽比和复杂度,其定义如下:
式中E、I和S分别为目标形状度、长宽比和复杂度;A、P、Lmax和Lmin分别为待识别目标的面积、外轮廓周长及长轴、短轴长,单位为像素。
作为本发明再进一步的方案:所述步骤三中,具体包括:
识别框架Θ下证据E1,…,En,其基本信任分配BBA为Bel(Ei)=mi,其BPA为Pl(Ei)=pli,且有如果/>存在(/>表示正交和)且其BBA为mi,则对于/>有:
式中:Aj(j=1,…,k)为Θ的焦元;m(A)为子集A合成信任度。
作为本发明再进一步的方案:所述步骤四中,具体包括:
假设对于N类的模式分类问题,采用识别算法构造分类器C,表示第i类模式被分类器C判断成第j类模式的数据占i类模式样本总数的百分率,则可得到维混淆矩阵:
其中,元素的行下标为目标的真实属性,列下标为分类器产生的识别属性,对角线元素为各模式能够被分类器C正确识别的百分率,非对角线元素为发生错误判断的百分率;混淆矩阵的行向量βi=[cmi1 … cmin]为模式i的对象在进行分类时对各模式的倾向性;不同分类器的混淆矩阵代表了该分类器对模式的分类能力;因此,通过对分类器同一模式的分类倾向求差值来得到分类器分类能力的差异度量值;假设两个分类器C1和C2,通过训练样本得到其混淆矩阵CM1和CM2,定义距离l12为CM1-CM2的L2测度,其元素值为:(tij)M×N=CM1-CM2,对于c个分类器,可以得到分类器距离矩阵:
式中:lij为任意两个分类器之间的距离,对于第i个分类器,其可信度过渡值式中/>定义分类器的可信度向量wi,并进行归一化通过Sigmoid函数实现SVM判据硬输出的后验概率输出,依据分类器可信度评价方法,给出SVM分类器分布规律,并结合各分类器识别精度构造BPA,SVM判据硬输出的后验概率输出是一种分类器识别率,设:
式中:ψ(x)为标准的SVM输出结果;P(y=1/ψ(x))为在输出值ψ(x)条件下分类正确的概率;κ为目标相识度,由分类器识别概率体现;a和b为参数值,通过求解参数集的最小负对数似然值求得,然后根据混淆矩阵获得的该分类器局部可信度wi,加权融合到后验概率中,有:/>对SVMi(i=1,2,…,c)训练样本集进行测试,得到第i个分类器的分类精度为ri,则可定义该分类器的BPA函数为:
式中:mi(+),mi(-),mi(Θ)分别对应二分类问题中的正类、负类和全集BPA。每个BPA函数对应的焦元均为4个,分别为{Φ,+,-,Θ}。
作为本发明再进一步的方案:所述步骤五中,基于各特征分类器的BPA也依据目标距离变化规律而设计;通过试验获取典型离散距离下的各分类器BPA,采用三次多项式最小二乘法拟合离散BPA与目标距离D,实验验证函数关系的有效性,从而实现D-S证据理论的BBR;
采用Gauss消去法解线性方程组,得c个分类器BBR曲线:
fk(d)=ak0+ak1d+ak2d2+ak3d3(k=1,2,…c)。
作为本发明再进一步的方案:所述步骤六中,联合信息粒度定义为:
1/Γ=Π(pp(a,ti),h0,pd,κ(ti))=pp(a,ti)×h0×pd×κ(ti)
式中:ti(i=0,1,2……),pp(a,ti)为ti时刻目标出现在先验区域概率;h0为传感器在某视场下分辨率,其取值与传感器高度有关;pd是某环境条件下传感器检测概率,即是传感器检测目标的条件概率;κ(ti)为ti时刻目标相识度。
本发明的有益效果是:解决了野外环境大范围飞行目标识别,存在单一传感器随距离大范围变化适应性问题,以及多个传感器在不同距离条件下识别不确定问题;其判别设计与实现方法是在分析目标跟踪过程中目标距离不断变化,研究可见光传感器、红外传感器及激光雷达三个独传感器的灰度和熵特征、颜色、形状四维的独立特征,兼顾了不同距离下目标的可分性,并通过建立低空目标动态识别问题描述基础上,重点分析传感器探测距离适应性;基于分类器识别特性及特征空间分布规律提出BPA基本构造方法;基于SVM的多源分类器融入D-S证据理论实现了多传感器融合识别框架;运用回归方法将离散距离BPA结果拟合出了连续距离信度分配策略;同时,提出了广域目标搜索系统搜索状态及跟踪状态切换问题,基于联合评价指标粒度定义了搜索系统状态不确定度及其切换判别方法。
附图说明
图1为本发明信度回归D-S推理的多特征融合识别框架图;
图2为本发明广域目标搜索与跟踪状态切换示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一
如图1至图2所示,一种多源信息融合不确定性判别方法,包括以下步骤
步骤一、独立特征分析,采集不同光照条件下目标典型离散距离下图像样本,依据目标先验知识进行图像预处理,并自动标识疑似目标,提取样本疑似目标的灰度、熵、颜色以及形状的四维独立特征,并进行分析;
步骤二、多源信息采集及目标信息提取,对于红外和可见光系统的灰度值,采用灰度均值对比度衡量目标窗口内的平均灰度和相邻背景区域的差别,以此区分远距离微小目标;
步骤三、构造基于信度回归的多源信息融合识别框架,识别框架下的证据;
步骤四、构造BPA函数,采用识别算法构造分类器,通过对分类器同一模式的分类倾向求差值来得到分类器分类能力的差异度量值,进而定义分类器的可信度向量,依据分类器可信度评价方法,给出分类器的分布规律,并结合各分类器识别精度构造BPA函数;
步骤五、建立BBR模型,不同距离下目标的显著性特征不同,远距离条件下局部灰度均值对比度和局部熵是目标的显著性特征;近距离条件下色度矩和形状度是目标的显著性特征;
步骤六、联合评价粒度广域目标搜索判别,首先,其值与目标搜索范围有关,当搜索区域靠近或涵盖目标落点先验概率高区域,其搜索信息粒度升高;同时,其值与传感器分辨率及捕获概率有关,当传感器分辨率高、区域条件下捕获概率高时,其搜索信息粒度值升高;最后,其值与分类器识别的目标相似度有关,当识别目标相似度高,其信息粒度将升高。
在本发明实施例中,所述步骤一中,对于样本疑似目标四维独立特征的提取,选用可见光传感器、红外传感器及激光雷达三个独立传感器分别测量。
在本发明实施例中,所述步骤二中,灰度值的定义为:
其中,和/>分别为当前像素g(x,y)所在内窗口和外窗口中所有像素的平均灰度;Nin和Nout为待处理像素g(x,y)的内窗口Win(x,y)和外窗口Wout(x,y)中的像素数;g(k,l)为图像中第k行第l列像素的灰度值;
对于红外和可见光系统的局部熵,刻画图像中局部区域灰度变化的剧烈程度,其定义为:
式中,为对于可见光系统测量的色度矩,目标颜色信息主要分布在低阶色度矩,其中,一阶色度矩描述平均颜色,二阶色度矩描述颜色方差,三阶色度矩描述颜色的偏移性。其定义如下:
式中:M1、M2、M3为一、二、三阶色度矩;对于激光雷达测量的形状度,形状特征主要包括形状度、长宽比和复杂度,其定义如下:
式中:E、I和S分别为目标形状度、长宽比和复杂度;A、P、Lmax和Lmin分别为待识别目标的面积、外轮廓周长及长轴、短轴长,单位为像素。
在本发明实施例中,所述步骤三中,具体包括:
识别框架Θ下证据E1,…,En,其基本信任分配BBA为Bel(Ei)=mi,其BPA为Pl(Ei)=pli,且有如果/>存在(/>表示正交和)且其BBA为mi,则对于/>有:
式中:Aj(j=1,…,k)为Θ的焦元;m(A)为子集A合成信任度。
在本发明实施例中,所述步骤四中,具体包括:
假设对于N类的模式分类问题,采用识别算法构造分类器C,表示第i类模式被分类器C判断成第j类模式的数据占i类模式样本总数的百分率,则可得到维混淆矩阵:
其中,元素的行下标为目标的真实属性,列下标为分类器产生的识别属性,对角线元素为各模式能够被分类器C正确识别的百分率,非对角线元素为发生错误判断的百分率;混淆矩阵的行向量βi=[cmi1 … cmin]为模式i的对象在进行分类时对各模式的倾向性;不同分类器的混淆矩阵代表了该分类器对模式的分类能力;因此,通过对分类器同一模式的分类倾向求差值来得到分类器分类能力的差异度量值;假设两个分类器C1和C2,通过训练样本得到其混淆矩阵CM1和CM2,定义距离l12为CM1-CM2的L2测度,其元素值为:(tij)M×N=CM1-CM2,对于c个分类器,可以得到分类器距离矩阵:
式中:lij为任意两个分类器之间的距离,对于第i个分类器,其可信度过渡值式中/>定义分类器的可信度向量wi,并进行归一化通过Sigmoid函数实现SVM判据硬输出的后验概率输出,依据分类器可信度评价方法,给出SVM分类器分布规律,并结合各分类器识别精度构造BPA,SVM判据硬输出的后验概率输出是一种分类器识别率,设:
式中:ψ(x)为标准的SVM输出结果;P(y=1/ψ(x))为在输出值ψ(x)条件下分类正确的概率;κ为目标相识度,由分类器识别概率体现;a和b为参数值,通过求解参数集的最小负对数似然值求得,然后根据混淆矩阵获得的该分类器局部可信度wi,加权融合到后验概率中,有:/>对SVMi(i=1,2,…,c)训练样本集进行测试,得到第i个分类器的分类精度为ri,则可定义该分类器的BPA函数为:
式中:mi(+),mi(-),mi(Θ)分别对应二分类问题中的正类、负类和全集BPA。每个BPA函数对应的焦元均为4个,分别为{Φ,+,-,Θ}。
实施例二
如图1至图2所示,一种多源信息融合不确定性判别方法,包括以下步骤
步骤一、独立特征分析,采集不同光照条件下目标典型离散距离下图像样本,依据目标先验知识进行图像预处理,并自动标识疑似目标,提取样本疑似目标的灰度、熵、颜色以及形状的四维独立特征,并进行分析;
步骤二、多源信息采集及目标信息提取,对于红外和可见光系统的灰度值,采用灰度均值对比度衡量目标窗口内的平均灰度和相邻背景区域的差别,以此区分远距离微小目标;
步骤三、构造基于信度回归的多源信息融合识别框架,识别框架下的证据;
步骤四、构造BPA函数,采用识别算法构造分类器,通过对分类器同一模式的分类倾向求差值来得到分类器分类能力的差异度量值,进而定义分类器的可信度向量,依据分类器可信度评价方法,给出分类器的分布规律,并结合各分类器识别精度构造BPA函数;
步骤五、建立BBR模型,不同距离下目标的显著性特征不同,远距离条件下局部灰度均值对比度和局部熵是目标的显著性特征;近距离条件下色度矩和形状度是目标的显著性特征;
步骤六、联合评价粒度广域目标搜索判别,首先,其值与目标搜索范围有关,当搜索区域靠近或涵盖目标落点先验概率高区域,其搜索信息粒度升高;同时,其值与传感器分辨率及捕获概率有关,当传感器分辨率高、区域条件下捕获概率高时,其搜索信息粒度值升高;最后,其值与分类器识别的目标相似度有关,当识别目标相似度高,其信息粒度将升高。
在本发明实施例中,所述步骤五中,基于各特征分类器的BPA也依据目标距离变化规律而设计;通过试验获取典型离散距离下的各分类器BPA,采用三次多项式最小二乘法拟合离散BPA与目标距离D,实验验证函数关系的有效性,从而实现D-S证据理论的BBR;
采用Gauss消去法解线性方程组,得c个分类器BBR曲线:
fk(d)=ak0+ak1d+ak2d2+ak3d3(k=1,2,…c)。
搜索环境信息描述,令pC(a)表示事件“栅格a中是否存在目标”,则有两种状态:
Z(i,a,t)表示事件“t时刻传感器检测到栅格中是否存在目标”,则有两种状态:
则有pC(a)=pp(a,t);
检测概率pd和虚警概率pf描述了传感器性能,而探测传感器对于目标检测概率pd和虚警概率pf受环境复杂度影响而发生变化;令pCj(a)表示事件“第j种环境中的栅格中是否存在目标”,则有两种状态:
Zj(i,a,t)表示事件“t时刻传感器检测到在第j种环境中栅格a中是否存在目标”,则有两种状态:
为“在第j种环境栅格a内存在目标的条件下,可以检测到存在目标”概率。
在本发明实施例中,所述步骤六中,联合信息粒度定义为:
1/Γ=Π(pp(a,ti),h0,pd,κ(ti))=pp(a,ti)×h0×pd×κ(ti)
式中:ti(i=0,1,2……),pp(a,ti)为ti时刻目标出现在先验区域概率;h0为传感器在某视场下分辨率,其取值与传感器高度有关;pd是某环境条件下传感器检测概率,即是传感器检测目标的条件概率;κ(ti)为ti时刻目标相识度。
在本发明实施例中,进行广域目标搜索及跟踪判别机制分析;多机协同系统的目标搜索态与跟踪态切换是一种不确定度判别问题;首先,状态切换与目标出现先验区域有关,搜索系统在目标出现概率先验区域,目标出现概率高,搜索系统从搜索态切换到跟踪态的概率大;其次,工作状态判断与目标识别有关,当目标识别相识度达到门限,多机协同系统将由搜索态转换成跟踪状态。
工作原理:采集随机距离下动态图像样本;依据目标先验知识进行图像预处理,并自动标识疑似目标;提取样本疑似目标的四维特征,并估算其距离;依据BBR模型,选取该距离下各证据推理的BPA;计算各疑似目标融合推理信度,并依据目标判别规则判别其真伪;
其中,目标判别规则为:
m(Atarget)=max{m(Ai)},即目标具有最大信度;
m(Atarget)-m(Ai)>ε1(ε1>0),即目标与疑似目标信度差值大于指定门限;
m(Atarget)-m(Θ)>ε2(ε2>0),即目标与不确定信度差值大于指定门限;
m(Θ)<θ(θ>0),即不确定信度小于指定门限。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。
Claims (3)
1.一种多源信息融合不确定性判别方法,其特征在于:包括以下步骤
步骤一、独立特征分析,采集不同光照条件下目标典型离散距离下图像样本,依据目标先验知识进行图像预处理,并自动标识疑似目标,提取样本疑似目标的灰度、熵、颜色以及形状的四维独立特征,并进行分析;
步骤二、多源信息采集及目标信息提取,对于红外和可见光系统的灰度值,采用灰度均值对比度衡量目标窗口内的平均灰度和相邻背景区域的差别,以此区分远距离微小目标;
步骤三、构造基于信度回归的多源信息融合识别框架,识别框架下的证据;
所述步骤三中,具体包括:
识别框架Θ下证据E1,…,En:基本信任分配BBA为Bel(Ei)=mi,基本信任分配BPA为Pl(Ei)=pli,且有 是指证据E1,…,En的平均值;
如果存在,/>表示正交和,且其BBA为mi,则对于/>有:
式中:Aj,j=1,…,k,为Θ的焦元;m(A)为子集A合成信任度;
步骤四、构造BPA函数,采用识别算法构造分类器,通过对分类器同一模式的分类倾向求差值来得到分类器分类能力的差异度量值,进而定义分类器的可信度向量,依据分类器可信度评价方法,给出分类器的分布规律,并结合各分类器识别精度构造BPA函数;
所述步骤四中,具体包括:
对于N类的模式分类问题,采用识别算法构造分类器C,cmij表示第i类模式被分类器C判断成第j类模式的数据占i类模式样本总数的百分率,则得到N*N维混淆矩阵:
其中,元素的行下标为目标的真实属性,列下标为分类器产生的识别属性;
对角线元素为各模式能够被分类器C正确识别的百分率,非对角线元素为发生错误判断的百分率;
混淆矩阵的行向量βi=[cmi1 … cmin]为模式i的对象在进行分类时对各模式的倾向性;
不同分类器的混淆矩阵代表了该分类器对模式的分类能力,通过对分类器同一模式的分类倾向求差值来得到分类器分类能力的差异度量值;
若两个分类器为C1和C2,通过训练样本得到其混淆矩阵CM1和CM2;
定义距离l12为CM1-CM2的L2测度,其元素值为:(tij)M×N=CM1-CM2,
对于c个分类器,得到分类器距离矩阵:
式中:lij为任意两个分类器之间的距离,对于第i个分类器,其可信度过渡值
式中,定义分类器的可信度向量wi,并进行归一化通过Sigmoid函数实现SVM判据硬输出的后验概率输出,依据分类器可信度评价方法,给出SVM分类器分布规律,并结合各分类器识别精度构造BPA,SVM判据硬输出的后验概率输出是一种分类器识别率,设:
式中:ψ(x)为标准的SVM输出结果;
P(y=1/ψ(x))为在输出值ψ(x)条件下分类正确的概率;
κ为目标相识度,由分类器识别概率体现;
a和b为参数值,通过求解参数集的最小负对数似然值求得;
根据混淆矩阵获得的该分类器局部可信度wi,加权融合到后验概率中,有:
对SVMi,i=1,2,…,c,训练样本集进行测试,得到第i个分类器的分类精度为ri,则定义该分类器的BPA函数为:
式中:mi(+),mi(-),mi(Θ)分别对应二分类问题中的正类、负类和全集BPA,每个BPA函数对应的焦元均为4个,分别为{Φ,+,-,Θ};
步骤五、建立BBR模型,不同距离下目标的显著性特征不同,远距离条件下局部灰度均值对比度和局部熵是目标的显著性特征;近距离条件下色度矩和形状度是目标的显著性特征;
所述步骤五中,基于各特征分类器的BPA也依据目标距离变化规律而设计;通过试验获取典型离散距离下的各分类器BPA,采用三次多项式最小二乘法拟合离散BPA与目标距离D,实验验证函数关系的有效性,从而实现D-S证据理论的BBR;
采用Gauss消去法解线性方程组,得c个分类器BBR曲线:
fk(d)=ak0+ak1d+ak2d2+ak3d3,k=1,2,…c
步骤六、联合评价粒度广域目标搜索判别:
首先,其值与目标搜索范围有关,当搜索区域靠近或涵盖目标落点先验概率高区域,其搜索信息粒度升高;
同时,其值与传感器分辨率及捕获概率有关,当传感器分辨率高、区域条件下捕获概率高时,其搜索信息粒度值升高;
最后,其值与分类器识别的目标相似度有关,当识别目标相似度高,其信息粒度将升高;
所述步骤六中,联合信息粒度定义为:
1/Γ=Π(pp(a,ti),h0,pd,κ(ti))=pp(a,ti)×h0×pd×κ(ti)
式中:ti,i=0,1,2……,pp(a,ti)为ti时刻目标出现在先验区域概率;
h0为传感器在某视场下分辨率,其取值与传感器高度有关;
pd是某环境条件下传感器检测概率,即是传感器检测目标的条件概率;
κ(ti)为ti时刻目标相识度。
2.根据权利要求1所述的一种多源信息融合不确定性判别方法,其特征在于:所述步骤一中,对于样本疑似目标四维独立特征的提取,选用可见光传感器、红外传感器及激光雷达三个独立传感器分别测量。
3.根据权利要求1所述的一种多源信息融合不确定性判别方法,其特征在于:所述步骤二中,灰度值的定义为:
其中,和/>分别为当前像素g(x,y)所在内窗口和外窗口中所有像素的平均灰度;
Nin和Nout为待处理像素g(x,y)的内窗口Win(x,y)和外窗口Wout(x,y)中的像素数;
g(k,l)为图像中第k行第l列像素的灰度值;
对于红外和可见光系统的局部熵,刻画图像中局部区域灰度变化的剧烈程度,其定义为:
式中,为对于可见光系统测量的色度矩,目标颜色信息分布在低阶色度矩,其中,一阶色度矩描述平均颜色,二阶色度矩描述颜色方差,三阶色度矩描述颜色的偏移性,其定义如下:
式中:M1、M2、M3为一、二、三阶色度矩;
对于激光雷达测量的形状度,形状特征主要包括形状度、长宽比和复杂度,其定义如下:
式中,E、I和S分别为目标形状度、长宽比和复杂度;
A、P、Lmax和Lmin分别为待识别目标的面积、外轮廓周长及长轴、短轴长,单位为像素。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210869911.2A CN115457351B (zh) | 2022-07-22 | 2022-07-22 | 一种多源信息融合不确定性判别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210869911.2A CN115457351B (zh) | 2022-07-22 | 2022-07-22 | 一种多源信息融合不确定性判别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115457351A CN115457351A (zh) | 2022-12-09 |
CN115457351B true CN115457351B (zh) | 2023-10-20 |
Family
ID=84296442
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210869911.2A Active CN115457351B (zh) | 2022-07-22 | 2022-07-22 | 一种多源信息融合不确定性判别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115457351B (zh) |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101697006A (zh) * | 2009-09-18 | 2010-04-21 | 北京航空航天大学 | 基于机载雷达和红外成像传感器数据融合的目标识别方法 |
KR101352846B1 (ko) * | 2013-07-19 | 2014-01-20 | (주)에스티씨 | 확률 이론에 기반하는 다중 센서 데이터 융합 방법을 이용한 상황 추론 시스템 및 방법 |
CN103810526A (zh) * | 2014-01-28 | 2014-05-21 | 北京仿真中心 | 一种基于d-s证据理论的知识融合方法 |
CN107992889A (zh) * | 2017-11-29 | 2018-05-04 | 西安交通大学 | 一种基于d-s证据理论的铁谱图像多信息融合方法 |
CN108332970A (zh) * | 2017-11-17 | 2018-07-27 | 中国铁路总公司 | 一种基于ls-svm和d-s证据理论的轴承故障诊断方法 |
CN110109095A (zh) * | 2019-04-30 | 2019-08-09 | 西南电子技术研究所(中国电子科技集团公司第十研究所) | 目标特征辅助多源数据的关联方法 |
CN110441060A (zh) * | 2019-08-07 | 2019-11-12 | 贵州电网有限责任公司 | 一种基于多传感器信息融合的机械故障诊断方法 |
CN111401145A (zh) * | 2020-02-26 | 2020-07-10 | 三峡大学 | 一种基于深度学习与ds证据理论的可见光虹膜识别方法 |
CN111860322A (zh) * | 2020-07-20 | 2020-10-30 | 吉林大学 | 一种基于多源传感器信息融合的非结构化路面类型识别方法 |
WO2022000838A1 (zh) * | 2020-07-03 | 2022-01-06 | 南京莱斯信息技术股份有限公司 | 基于马尔可夫随机场的远程塔台视频目标挂标牌方法 |
GB202117576D0 (en) * | 2021-01-18 | 2022-01-19 | Hybrid Drones Ltd | Vision system and method for unmanned aerial vehicles |
CN114067224A (zh) * | 2021-10-18 | 2022-02-18 | 南京航空航天大学 | 一种基于多传感器数据融合的无人机集群目标数量检测方法 |
CN114154529A (zh) * | 2021-10-12 | 2022-03-08 | 北京邮电大学 | 基于多源数据融合的电磁目标识别方法及相关设备 |
CN114648052A (zh) * | 2020-12-18 | 2022-06-21 | 武汉智行者科技有限公司 | 一种基于ds证据理论的多传感器信息融合算法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005017807A2 (en) * | 2003-08-13 | 2005-02-24 | Iconix Pharmaceuticals, Inc. | Apparatus and method for classifying multi-dimensional biological data |
CN106354735A (zh) * | 2015-07-22 | 2017-01-25 | 杭州海康威视数字技术股份有限公司 | 一种图像中目标的检索方法和装置 |
CN108663677A (zh) * | 2018-03-29 | 2018-10-16 | 上海智瞳通科技有限公司 | 一种多传感器深度融合提高目标检测能力的方法 |
CN110297141A (zh) * | 2019-07-01 | 2019-10-01 | 武汉大学 | 基于多层评估模型的故障定位方法及系统 |
CN112668164A (zh) * | 2020-12-18 | 2021-04-16 | 武汉大学 | 诱导有序加权证据推理的变压器故障诊断方法及系统 |
-
2022
- 2022-07-22 CN CN202210869911.2A patent/CN115457351B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101697006A (zh) * | 2009-09-18 | 2010-04-21 | 北京航空航天大学 | 基于机载雷达和红外成像传感器数据融合的目标识别方法 |
KR101352846B1 (ko) * | 2013-07-19 | 2014-01-20 | (주)에스티씨 | 확률 이론에 기반하는 다중 센서 데이터 융합 방법을 이용한 상황 추론 시스템 및 방법 |
CN103810526A (zh) * | 2014-01-28 | 2014-05-21 | 北京仿真中心 | 一种基于d-s证据理论的知识融合方法 |
CN108332970A (zh) * | 2017-11-17 | 2018-07-27 | 中国铁路总公司 | 一种基于ls-svm和d-s证据理论的轴承故障诊断方法 |
CN107992889A (zh) * | 2017-11-29 | 2018-05-04 | 西安交通大学 | 一种基于d-s证据理论的铁谱图像多信息融合方法 |
CN110109095A (zh) * | 2019-04-30 | 2019-08-09 | 西南电子技术研究所(中国电子科技集团公司第十研究所) | 目标特征辅助多源数据的关联方法 |
CN110441060A (zh) * | 2019-08-07 | 2019-11-12 | 贵州电网有限责任公司 | 一种基于多传感器信息融合的机械故障诊断方法 |
CN111401145A (zh) * | 2020-02-26 | 2020-07-10 | 三峡大学 | 一种基于深度学习与ds证据理论的可见光虹膜识别方法 |
WO2022000838A1 (zh) * | 2020-07-03 | 2022-01-06 | 南京莱斯信息技术股份有限公司 | 基于马尔可夫随机场的远程塔台视频目标挂标牌方法 |
CN111860322A (zh) * | 2020-07-20 | 2020-10-30 | 吉林大学 | 一种基于多源传感器信息融合的非结构化路面类型识别方法 |
CN114648052A (zh) * | 2020-12-18 | 2022-06-21 | 武汉智行者科技有限公司 | 一种基于ds证据理论的多传感器信息融合算法 |
GB202117576D0 (en) * | 2021-01-18 | 2022-01-19 | Hybrid Drones Ltd | Vision system and method for unmanned aerial vehicles |
CN114154529A (zh) * | 2021-10-12 | 2022-03-08 | 北京邮电大学 | 基于多源数据融合的电磁目标识别方法及相关设备 |
CN114067224A (zh) * | 2021-10-18 | 2022-02-18 | 南京航空航天大学 | 一种基于多传感器数据融合的无人机集群目标数量检测方法 |
Non-Patent Citations (7)
Title |
---|
D-S理论多分类器融合的光学遥感图像多目标识别;姬晓飞;石宇辰;王昱;田晓欧;;电子测量与仪器学报(第05期);132-137 * |
一种D-S证据理论的改进方法及其在目标识别中的应用;李炯;雷虎民;刘兴堂;;探测与控制学报(第01期);76-79 * |
一种基于决策距离测量与D-S证据理论结合的多源冲突证据信息融合算法;杨永旭;高自凡;朱辉;赵玄;;兰州文理学院学报(自然科学版)(第06期);67-72 * |
基于多源信息不确定性的可能性融合方法研究;周新宇;《中国优秀硕士学位论文全文数据库 信息科技辑》;I140-53 * |
基于最大隶属度与证据理论的目标识别融合;张玉鹏;李延磊;孙暄;鲁佳琪;;电光与控制(第06期);60-63 * |
基于证据理论的多传感器信息融合目标识别方法;焦准;王伟平;张蓉;;弹箭与制导学报(第04期);276-278 * |
支持向量机与证据理论在信息融合中的结合;周皓;李少洪;;传感技术学报(第09期);1566-1570 * |
Also Published As
Publication number | Publication date |
---|---|
CN115457351A (zh) | 2022-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Lombacher et al. | Semantic radar grids | |
Marquez et al. | Intra-hour DNI forecasting based on cloud tracking image analysis | |
CN101403676B (zh) | 基于d-s证据理论的绝缘子憎水性等级融合判决方法 | |
Tao et al. | Scene context-driven vehicle detection in high-resolution aerial images | |
Song et al. | Image-based traffic monitoring with shadow suppression | |
CN104182985A (zh) | 遥感图像变化检测方法 | |
CN104680554A (zh) | 基于surf的压缩跟踪方法和系统 | |
Yang et al. | Vehicle detection methods from an unmanned aerial vehicle platform | |
Jakovčević et al. | Visual spatial-context based wildfire smoke sensor | |
CN102819838B (zh) | 基于多源目标特征支持的高光谱遥感图像变化检测方法 | |
Sun et al. | Ship detection in SAR images based on multi-level superpixel segmentation and fuzzy fusion | |
CN115457351B (zh) | 一种多源信息融合不确定性判别方法 | |
Malinas et al. | Vehicle track detection in CCD imagery via conditional random field | |
Wang et al. | A novel filter-based anomaly detection framework for hyperspectral imagery | |
Parameswaran et al. | Evaluation schemes for video and image anomaly detection algorithms | |
Farah et al. | A fast ship detection algorithm based on automatic censoring for multiple target situations in SAR images | |
Promsuk et al. | Numerical Reader System for Digital Measurement Instruments Embedded Industrial Internet of Things. | |
Zhan et al. | Objects classification from laser scanning data based on multi-class support vector machine | |
Xu et al. | Crowd density estimation based on improved Harris & OPTICS Algorithm | |
Wang et al. | A new ship detection and classification method of spaceborne SAR images under complex scene | |
Phillips | Activity detection in SAR CCD | |
CN112634299A (zh) | 一种排除飞虫干扰的遗留物检测方法 | |
Sahay et al. | An uncertainty quantification framework for counter unmanned aircraft systems using deep ensembles | |
Tang et al. | Image Semantic Recognition and Segmentation Algorithm of Colorimetric Sensor Array Based on Deep Convolutional Neural Network | |
CN112749714A (zh) | 一种单帧红外图像中多形态暗弱小目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |