CN107767406B - 一种基于ds证据理论的多光谱图像弱小目标跟踪方法 - Google Patents
一种基于ds证据理论的多光谱图像弱小目标跟踪方法 Download PDFInfo
- Publication number
- CN107767406B CN107767406B CN201711115738.2A CN201711115738A CN107767406B CN 107767406 B CN107767406 B CN 107767406B CN 201711115738 A CN201711115738 A CN 201711115738A CN 107767406 B CN107767406 B CN 107767406B
- Authority
- CN
- China
- Prior art keywords
- target
- value
- cloud
- sky
- wave band
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 239000008186 active pharmaceutical agent Substances 0.000 title claims abstract description 10
- 230000008030 elimination Effects 0.000 claims abstract description 7
- 238000003379 elimination reaction Methods 0.000 claims abstract description 7
- 238000003384 imaging method Methods 0.000 claims description 10
- 230000004927 fusion Effects 0.000 claims description 8
- 238000007500 overflow downdraw method Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000005192 partition Methods 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 238000011426 transformation method Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 4
- 230000008901 benefit Effects 0.000 abstract description 3
- 238000006073 displacement reaction Methods 0.000 description 4
- 238000005315 distribution function Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 239000004744 fabric Substances 0.000 description 2
- 238000002715 modification method Methods 0.000 description 2
- FBOUIAKEJMZPQG-AWNIVKPZSA-N (1E)-1-(2,4-dichlorophenyl)-4,4-dimethyl-2-(1,2,4-triazol-1-yl)pent-1-en-3-ol Chemical compound C1=NC=NN1/C(C(O)C(C)(C)C)=C/C1=CC=C(Cl)C=C1Cl FBOUIAKEJMZPQG-AWNIVKPZSA-N 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10036—Multispectral image; Hyperspectral image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明基于多光谱图像,提供一种用DS证据理论实现面空背景下弱小目标跟踪的方法,涉及目标跟踪、图像处理领域。本发明对目标、云、天空建立三角模糊模型,将模型展宽后对像素点分类,根据像素点分类结果得到目标位置实现对目标的跟踪,并用像素点分类结果更新当前三角模糊数模型。本发明采用DS证据理论对像素点分类,此分类方法较好的融合了不同波段的图像信息,能够实现目标跟踪,具有计算简单、实时性好的优点;本发明提出的干扰排除方法,很好的排除了随机干扰导致的误判,能够选取到真实的跟踪目标。
Description
技术领域
本发明涉及目标跟踪、图像处理领域,是一种基于DS证据理论实现面空背景下多光谱图像弱小目标跟踪的方法。
背景技术
目标跟踪是计算机视觉研究领域的热点之一,并得到广泛应用。简单来说,目标跟踪就是在连续的视频序列中,建立所要跟踪物体的位置关系,得到物体完整的运动轨迹。给定图像第一帧的目标坐标位置,计算在下一帧图像中目标的确切位置。现代化战争中,为了增大作战距离,通常要求远距离跟踪锁定目标,实现快速有效的目标打击。然而,对于远距离成像,由于目标成像面积较小、图像信噪比较低,无法得到目标形状、纹理等有用的目标特征,因此弱小目标的检测跟踪比较困难。
信息融合技术是协同利用多源信息,以获得对事物或目标更客观、更本质认识的信息综合处理技术,是智能科学研究的关键技术之一。在诸多的融合模型和方法中,D-S证据理论算法是最为有效的算法之一。证据理论把概率论中的基本事件空间拓宽为基本事件的幂集,又称为辨识框架,在辨识框架上建立了基本概率分配函数(Basic ProbabilityAssignment,BPA)。此外,证据理论还提供了一个Dempster组合规则,该规则可以在没有先验信息的情况下实现证据的融合。特别地,当BPA只在辨识框架的单子集命题上进行分配时,BPA就转换为概率论中的概率,而组合规则的融合结果与概率论中的Bayes公式相同。从这个角度来看,DS证据理论能够比概率论更有效地表示和处理不确定信息,这些特点使其在信息融合领域得到了广泛的应用。正是由于DS证据理论在不确定知识表示方面具有优良的性能,所以近几年其理论和应用发展较快,该理论在多传感器信息融合、医学诊断、军事指挥、目标识别方面发挥了重要作用。
目前尚未有基于证据理论实现多光谱图像弱小目标跟踪的研究。证据理论有诸多优点,将其应用在多光谱图像弱小目标跟踪上具有重要的军事价值。
发明内容
为了实现弱小目标跟踪,本发明基于多光谱图像,提供一种用DS证据理论实现面空背景下弱小目标跟踪的方法。使用该方法实现的弱小目标跟踪具有重要的军民用价值。
本发明解决其技术问题所采用的技术方案包括如下步骤:
步骤一:输入一帧面空多光谱图像及当前环境下每个波段云(C)、天空(S)及目标(T)灰度最小值、中值及最大值,根据输入的云、天空及当前目标成像的灰度最小值、中值、最大值,建立对应的三角模糊数模型,辨识框架为Θ={C,S,T},辨识框架中C表示云,S表示天空,T表示目标,C,S,T三角模糊数模型建立的方法为:
将波段i云成像的灰度最小值Cmini、中值Cavei及最大值Cmaxi分别作为波段i云三角模糊数模型的最小值,中值,最大值,则波段i云的三角模糊数为将波段i天空成像的灰度最小值Smini、中值Savei及最大值Smaxi分别作为波段i天空三角模糊数模型的最小值,中值,最大值,则波段i天空建立的三角模糊数为将波段i目标成像的灰度最小值Tmini、中值Tavei及最大值Tmaxi分别作为波段i当前目标三角模糊数模型的最小值,中值,最大值,则波段i当前目标建立的三角模糊数为
步骤二:将步骤一获得的模糊数展宽,即将模糊数的上界增大、下界减小,分别记云、天空、当前目标展宽后的模糊数为所述展宽方法为:
步骤三:对输入图像中每个像素点p进行分类,分类结果可能为云、天空、目标:
1)对每个像素点p,取其波段i灰度值Gi,用Gi和生成基本概率分配函数mi,所述分别为前述波段i云、天空、目标的三角模糊数,所述基本概率分配函数在证据理论中被定义为对任意一个属于Θ的子集A,m(A)∈[0,1],且满足则m为2Θ上的基本概率分配函数,其中2Θ为辨识框架的幂集,所述基本概率分配函数mi生成方法为:将Gi与模糊数交点的高点(非最低点)赋给相应单子集元素的信度,将Gi与模糊数交点的最低点赋给相应双子集元素或多子集的信度,其中所述的单子集元素指的是步骤一中辨识框架Θ的子集{C},{S}或{T},所述的双子集元素指的是步骤一中辨识框架Θ的子集{C,S},{C,T}或{S,T},所述多子集元素指的是步骤一中辨识框架Θ的子集{C,S,T};记生成的信度之和为Sum,用Sum将生成的信度归一化得到mi;
2)将25个波段生成的基本概率分配函数mi使用平均融合方法融合得到m,所述平均融合方法为:其中mi(i=1,2,…,25)为步骤二中生成的基本概率分配函数;
3)使用Pignistic probability transformation方法将融合后的m转换为概率分布P,所述转换方法为:其中
4)依据得到的概率分布P对像素点p分类,取P({C}),P({S}),P({T})中最大的概率对应的类别作为像素点p的分类结果(若最大概率不止一个且包含P({T}),则将T作为像素点p的分类结果),分类结果中C表示云,S表示天空,T表示目标;
步骤四:对误识点进行干扰排除,以选取真实的跟踪目标,干扰排除的原理是利用相邻帧目标区域的位置相关性来实现:
在当前帧所有目标区域中选取距离上帧图像中目标位置最近的区域作为待选目标,若距离在合理的阈值区间内,则认为待选目标是当前跟踪的目标,否则认为是随机干扰,阈值区间可根据目标运动速度选取(例如可将阈值区间选为0.5倍目标单帧位移~1.5倍目标单帧位移);
步骤五:根据当前帧的像素点分类结果更新上一帧目标、云、天空的三角模糊数模型,将更新后的模型作为下一帧图像云、天空、目标三种类别的模糊数模型,所述模型更新方法为:
对于所有被识别为云的像素点,求出这些像素点波段i的最大值max和最小值min,若max>Cmaxi,将上界更新为max,若min<Cmini,将下界更新为min;对于所有被识别为天空的像素点,求出这些像素点波段i的最大值max和最小值min,若max>Smaxi,将上界更新为max,若min<Smini,将下界更新为min;对于所有被识别为目标的像素点,求出这些像素点波段i的最大值max和最小值min,若max>Tmaxi,将上界更新为max,若min<Tmini,将下界更新为min。
本发明的有益效果在于本发明采用DS证据理论对像素点分类,能够根据像素点分类结果选取出目标,实现弱小目标跟踪,因此本发明提出的分类方法较好的融合了不同波段的图像信息,具有计算简单、实时性好的优点;本发明提出的三角模糊数建模方法,很好的解决了模糊信息的表示问题;本发明提出的基本概率分配函数生成方法,很好的实现了对模糊信息的处理;本发明提出的干扰排除方法,很好的排除了随机干扰导致的误判。
附图说明
图1本发明实现的总流程图。
图2是波段1三种类别的模糊数。
图3是波段1三种类别展宽后的模糊数。
具体实施方式
下面结合附图和实例对本发明进一步说明。
步骤一:输入一帧25波段的面空多光谱图像及当前环境下每个波段云(C)、天空(S)及目标(T)成像位置、灰度最小值、中值及最大值,根据输入的云、天空及当前目标成像的灰度最小值、中值、最大值,建立对应的三角模糊数模型,辨识框架为Θ={C,S,T},辨识框架中C表示云,S表示天空,T表示目标,C,S,T三角模糊数模型建立的方法为:
输入波段1云成像的灰度最小值97、中值121.5及最大值146,分别作为波段1云三角模糊数模型的最小值,中值,最大值,则波段1云的三角模糊数为将波段1天空成像的灰度最小值99、中值109及最大值119分别作为波段1天空三角模糊数模型的最小值,中值,最大值,则波段1天空建立的三角模糊数为将波段1目标成像的灰度最小值113、中值119最大值125分别作为波段1目标三角模糊数模型的最小值,中值,最大值,则波段1当前目标建立的三角模糊数为
步骤二:将步骤一获得的模糊数展宽,即将模糊数的上界增大、下界减小,分别记云、天空、当前目标展宽后的模糊数为所述展宽方法为:
以的展宽为例,展宽后的结果为:
步骤三:对输入图像中任一像素点p进行分类,分类结果可能为云、天空、目标:
1)对任一分类像素点p,取其波段i灰度值Gi,用Gi和生成基本概率分配函数mi,所述分别为前述波段i云、天空、目标的三角模糊数,所述基本概率分配函数在证据理论中被定义为对任意一个属于Θ的子集A,m(A)∈[0,1],且满足则m为2Θ上的基本概率分配函数,其中2Θ为辨识框架的幂集,所述基本概率分配函数mi生成方法为:将Gi与模糊数交点的高点赋给相应单子集元素的信度,将Gi与模糊数交点的最低点赋给相应双子集元素或多子集的信度,其中所述的单子集元素指的是步骤一中辨识框架Θ的子集{C},{S}或{T},所述的双子集元素指的是步骤一中辨识框架Θ的子集{C,S},{C,T}或{S,T},所述多子集元素指的是步骤一中辨识框架Θ的子集{C,S,T};记生成的信度之和为Sum,将生成的信度归一化得到mi;
输入的像素点p在波段1的灰度值为101,则m1生成方法如下:
如图3,灰度值101与各有一个交点,分别为0.3077,0.4058,0.6000,将0.3077作为全集{C,S,T}的信度,将0.4058作为云朵(C)的信度,将0.6000作为天空(S)的信度。此时Sum=1.3135,将得到的信度归一化即得到m1:
m1{S}=0.6000/1.3135=0.4568,m1{C}=0.4056/1.3135=0.3089,
m1{C,S,T}=0.3077/1.3135=0.2343
用同样的方法,得m2~m25如下:
m2{T}=0.4495,m2{C}=0.4054,m2{C,S,T}=0.1451
m3{C}=0.3405,m3{S}=0.3602,m3{C,S,T}=0.2993
m4{T}=0.3731,m4{C}=0.3531,m4{C,S,T}=0.2738
m5{T}=0.3591,m5{C}=0.4025,m5{C,S,T}=0.2384
m6{T}=0.3667,m6{C}=0.3566,m6{C,S,T}=0.2767
m7{T}=0.3375,m7{C}=0.3674,m7{C,S,T}=0.2952
m8{T}=0.3935,m8{C}=0.4062,m8{C,S,T}=0.2003
m9{T}=0.3585,m9{C}=0.4092,m9{C,S,T}=0.2323
m10{T}=0.3624,m10{C}=0.3746,m10{C,S,T}=0.2630
m11{T}=0.4116,m11{C}=0.3667,m11{C,S,T}=0.2217
m12{T}=0.5951,m12{C,T}=0.4049
m13{T}=0.4866,m13{C}=0.2940,m13{C,S,T}=0.2194
m14{T}=0.5612,m14{C}=0.2935,m14{C,S,T}=0.1453
m15{S}=0.3336,m15{C}=0.3364,m15{C,S,T}=0.3300
m16{T}=0.3071,m16{C}=0.0411,m16{C,S,T}=0.2818
m17{T}=0.5552,m17{C}=0.5552,m17{C,S,T}=0.4448
m18{S}=0.3644,m18{C}=0.3712,m18{C,S,T}=0.2373
m19{T}=0.3743,m19{C}=0.3290,m19{C,S,T}=0.2967
m20{T}=0.3699,m20{S}=0.3562,m20{C,S,T}=0.2739
m21{T}=0.3938,m21{S}=0.3574,m21{C,S,T}=0.2488
m22{T}=0.3486,m22{S}=0.3841,m22{C,S,T}=0.2673
m23{T}=0.4085,m23{S}=0.3066,m23{C,S,T}=0.2849
m24{T}=0.3777,m24{S}=0.3372,m24{C,S,T}=0.2851
m25{C}=0.3650,m25{S}=0.3581,m25{C,S,T}=0.2769
2)将25个波段生成的基本概率分配函数mi使用平均融合方法融合得到m,所述平均融合方法为:其中mi(i=1,2,…,25)为步骤二中生成的基本概率分配函数;
融合结果为:m{T}=0.3210,m{C}=0.2753,m{S}=0.1446,m{C,T}=0.0162,
m{C,S,T}=0.2429
3)使用Pignistic probability transformation方法将融合后的m转换为概率分布P,所述转换方法为:其中
m转换为概率分布P的结果为
P{T}=0.4104,P{S}=0.2255,P{C}=0.3644
4)依据得到的概率分布P对像素点p分类,取P({C}),P({S}),P({T})中最大的概率对应的类别作为像素点p分类的结果,分类结果中C表示云,S表示天空,T表示目标;
根据概率分布P,最大概率类别为T,因此像素点p被分类为目标。
步骤四:对分类为未知目标的区域进行干扰排除,以选取真实的运动未知目标,干扰排除的原理是利用相邻帧未知区域的位置相关性来实现:
若为随机干扰导致的误识,则相邻帧未知区域的位置变化较大,设定合理的阈值即可排除随机干扰,阈值可根据目标运动速度选取(如选为1.5倍目标单帧位移);若为静止目标,经过5-10帧之后其总位移会接近0,同样可以将其排除;
步骤五:根据当前帧的像素点分类结果更新上一帧目标、云、天空的三角模糊数模型,将更新后的模型作为下一帧图像云、天空、目标三种类别的模糊数模型,所述模型更新方法为:
对于所有被识别为云的像素点,求出这些像素点波段i的最大值max和最小值min,若max>Cmaxi,将上界更新为max,若min<Cmini,将下界更新为min;对于所有被识别为天空的像素点,求出这些像素点波段i的最大值max和最小值min,若max>Smaxi,将上界更新为max,若min<Smini,将下界更新为min;对于所有被识别为目标的像素点,求出这些像素点波段i的最大值max和最小值min,若max>Tmaxi,将上界更新为max,若min<Tmini,将下界更新为min。
以波段1模型更新为例:对于所有被识别为云的像素点,求出这些像素点波段1的最大值为146、最小值为97,上界下界均不更新;对于所有被识别为天空的像素点,求出这些像素点波段1的最大值为119、最小值为99,因此上界下界均不更新;对于所有被识别为目标的像素点,求出这些像素点波段1的最大值为125,最小值为101,101<113,因此将下界更新为101,上界不更新。
Claims (1)
1.一种基于DS证据理论的多光谱图像弱小目标跟踪方法,其特征在于包括下述步骤:
步骤一:输入一帧多光谱图像及当前环境下每个波段云、天空及目标灰度最小值、中值及最大值,根据输入的云、天空及当前目标成像的灰度最小值、中值、最大值,建立对应的三角模糊数模型,辨识框架为Θ={C,S,T},辨识框架中C表示云,S表示天空,T表示目标,C,S,T三角模糊数模型建立的方法为:
将波段i云成像的灰度最小值Cmini、中值Cavei及最大值Cmaxi分别作为波段i云三角模糊数模型的最小值,中值,最大值,则波段i云的三角模糊数为将波段i天空成像的灰度最小值Smini、中值Savei及最大值Smaxi分别作为波段i天空三角模糊数模型的最小值,中值,最大值,则波段i天空建立的三角模糊数为将波段i目标成像的灰度最小值Tmini、中值Tavei及最大值Tmaxi分别作为波段i当前目标三角模糊数模型的最小值,中值,最大值,则波段i当前目标建立的三角模糊数为
步骤二:将步骤一获得的模糊数展宽,即将模糊数的上界增大、下界减小,分别记云、天空、当前目标展宽后的模糊数为所述展宽方法为:
步骤三:对输入图像中任一像素点p进行分类,分类结果为云、天空、目标:
1)对任一分类像素点p,取其波段i灰度值Gi,用Gi和生成基本概率分配函数mi,所述分别为前述波段i云、天空、目标的三角模糊数,所述基本概率分配函数在证据理论中被定义为对任意一个属于Θ的子集A,m(A)∈[0,1],且满足则mi为2Θ上的基本概率分配函数,其中2Θ为辨识框架的幂集,所述基本概率分配函数mi生成方法为:将Gi与模糊数交点的高点赋给相应单子集元素的信度,将Gi与模糊数交点的最低点赋给相应双子集元素或多子集的信度,其中所述的单子集元素指的是步骤一中辨识框架Θ的子集{C},{S}或{T},所述的双子集元素指的是步骤一中辨识框架Θ的子集{C,S},{C,T}或{S,T},所述多子集元素指的是步骤一中辨识框架Θ的子集{C,S,T};记生成的信度之和为Sum,将生成的信度归一化得到mi;
2)将25个波段生成的基本概率分配函数mi使用平均融合方法融合得到m,所述平均融合方法为:其中mi(i=1,2,…,25)为生成的基本概率分配函数;
3)使用Pignistic probability transformation方法将融合后的m转换为概率分布P,所述转换方法为:其中
4)依据得到的概率分布P对像素点p分类,取P({C}),P({S}),P({T})中最大的概率对应的类别作为像素点p分类的结果,分类结果中C表示云,S表示天空,T表示目标;
步骤四:对误识点进行干扰排除,以选取真实的跟踪目标,干扰排除的原理是利用相邻帧目标区域的位置相关性来实现:
在当前帧所有目标区域中选取距离上帧图像中目标位置最近的区域作为待选目标,若距离在合理的阈值区间内,则认为待选目标是当前跟踪的目标,否则认为是随机干扰,阈值区间可根据目标运动速度选取;
步骤五:根据当前帧的像素点分类结果更新上一帧目标、云、天空的三角模糊数模型,将更新后的模型作为下一帧图像云、天空、目标三种类别的模糊数模型,所述模型更新方法为:
对于所有被识别为云的像素点,求出这些像素点波段i的最大值max和最小值min,若max>Cmaxi,将上界更新为max,若min<Cmini,将下界更新为min;对于所有被识别为天空的像素点,求出这些像素点波段i的最大值max和最小值min,若max>Smaxi,将上界更新为max,若min<Smini,将下界更新为min;对于所有被识别为目标的像素点,求出这些像素点波段i的最大值max和最小值min,若max>Tmaxi,将上界更新为max,若min<Tmini,将下界更新为min。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711115738.2A CN107767406B (zh) | 2017-11-13 | 2017-11-13 | 一种基于ds证据理论的多光谱图像弱小目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711115738.2A CN107767406B (zh) | 2017-11-13 | 2017-11-13 | 一种基于ds证据理论的多光谱图像弱小目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107767406A CN107767406A (zh) | 2018-03-06 |
CN107767406B true CN107767406B (zh) | 2019-05-10 |
Family
ID=61272820
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711115738.2A Active CN107767406B (zh) | 2017-11-13 | 2017-11-13 | 一种基于ds证据理论的多光谱图像弱小目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107767406B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108320305A (zh) * | 2018-01-15 | 2018-07-24 | 西北工业大学 | 一种基于ds证据理论的多光谱图像弱小目标跟踪方法 |
CN108681710B (zh) * | 2018-05-16 | 2020-11-27 | 北京理工大学 | 基于宽波段-高光谱红外图像融合方法的海天背景下舰船识别方法及装置 |
CN109325968A (zh) * | 2018-09-27 | 2019-02-12 | 东南大学 | 一种基于谱滤波的目标跟踪方法 |
CN110045365B (zh) * | 2019-03-26 | 2023-03-14 | 西北工业大学 | 一种基于雷达信息的图像目标定位方法 |
CN111667073B (zh) * | 2020-03-30 | 2021-12-28 | 西北工业大学 | 一种证据理论改进的模糊卡尔曼滤波目标跟踪方法 |
CN111783565B (zh) * | 2020-06-15 | 2024-03-22 | 西北工业大学 | 一种基于正反证据信度结构的多传感器目标识别方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101853377A (zh) * | 2010-05-13 | 2010-10-06 | 复旦大学 | 一种对数字视频进行内容识别的方法 |
CN105551031A (zh) * | 2015-12-10 | 2016-05-04 | 河海大学 | 基于fcm和证据理论的多时相遥感影像变化检测方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5671265A (en) * | 1995-07-14 | 1997-09-23 | Siemens Corporate Research, Inc. | Evidential reconstruction of vessel trees from X-ray angiograms with a dynamic contrast bolus |
CN101403676B (zh) * | 2008-10-28 | 2011-08-31 | 华北电力大学 | 基于d-s证据理论的绝缘子憎水性等级融合判决方法 |
CN101950408B (zh) * | 2010-08-12 | 2012-01-18 | 合肥工业大学 | 基于d-s证据理论的数字图像可信性度量方法 |
-
2017
- 2017-11-13 CN CN201711115738.2A patent/CN107767406B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101853377A (zh) * | 2010-05-13 | 2010-10-06 | 复旦大学 | 一种对数字视频进行内容识别的方法 |
CN105551031A (zh) * | 2015-12-10 | 2016-05-04 | 河海大学 | 基于fcm和证据理论的多时相遥感影像变化检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107767406A (zh) | 2018-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107767406B (zh) | 一种基于ds证据理论的多光谱图像弱小目标跟踪方法 | |
CN110675418B (zh) | 一种基于ds证据理论的目标轨迹优化方法 | |
Shuai et al. | millieye: A lightweight mmwave radar and camera fusion system for robust object detection | |
CN110287826B (zh) | 一种基于注意力机制的视频目标检测方法 | |
CN111161309B (zh) | 一种车载视频动态目标的搜索与定位方法 | |
CN107967449B (zh) | 一种基于广义证据理论的多光谱图像未知目标识别方法 | |
JP2002373332A (ja) | 画像認識装置および画像認識方法 | |
CN109448023B (zh) | 一种卫星视频小目标实时跟踪方法 | |
Mazzeo et al. | HSV and RGB color histograms comparing for objects tracking among non overlapping FOVs, using CBTF | |
CN106709938A (zh) | 基于改进tld的多目标追踪方法 | |
Ni et al. | Open-set human identification based on gait radar micro-Doppler signatures | |
CN117593592B (zh) | 车底异物智能扫描识别系统及方法 | |
CN116798070A (zh) | 一种基于光谱感知和注意力机制的跨模态行人重识别方法 | |
CN116342894A (zh) | 基于改进YOLOv5的GIS红外特征识别系统及方法 | |
Tuominen et al. | Cloud detection and movement estimation based on sky camera images using neural networks and the Lucas-Kanade method | |
Alsanad et al. | Real-time fuel truck detection algorithm based on deep convolutional neural network | |
Li et al. | Real-time tracking algorithm for aerial vehicles using improved convolutional neural network and transfer learning | |
CN112733770A (zh) | 一种区域入侵监测方法和装置 | |
CN108320305A (zh) | 一种基于ds证据理论的多光谱图像弱小目标跟踪方法 | |
CN116777953A (zh) | 基于多尺度特征聚合增强的遥感图像目标跟踪方法 | |
CN110110670A (zh) | 基于Wasserstein度量的行人跟踪中的数据关联方法 | |
CN101950362B (zh) | 一种视频信号的关注度分析系统 | |
CN113963270A (zh) | 一种高分遥感影像建筑物检测方法 | |
Tang | Intelligent target detection and tracking algorithm for martial arts applications | |
Luo et al. | Edgeactnet: Edge intelligence-enabled human activity recognition using radar point cloud |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |