CN105825239A - 基于稀疏表示的多传感器航迹融合方法 - Google Patents

基于稀疏表示的多传感器航迹融合方法 Download PDF

Info

Publication number
CN105825239A
CN105825239A CN201610196780.0A CN201610196780A CN105825239A CN 105825239 A CN105825239 A CN 105825239A CN 201610196780 A CN201610196780 A CN 201610196780A CN 105825239 A CN105825239 A CN 105825239A
Authority
CN
China
Prior art keywords
flight path
noise
dictionary
training sample
noiseless
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610196780.0A
Other languages
English (en)
Inventor
张冰尘
王欢
孙进平
洪文
蒋成龙
毕辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Electronics of CAS
Original Assignee
Institute of Electronics of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Electronics of CAS filed Critical Institute of Electronics of CAS
Priority to CN201610196780.0A priority Critical patent/CN105825239A/zh
Publication of CN105825239A publication Critical patent/CN105825239A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/513Sparse representations

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明提供了一种基于稀疏表示的多传感器航迹融合方法。该多传感器航迹融合方法包括:根据各个局部传感器航迹的当前时刻状态信息构建无噪声训练样本集T和含噪声训练样本集R;基于两者建立字典训练模型;对字典训练模型进行训练,学习出了一对无噪声、含噪声字典D、C,使得无噪声、含噪声训练样本T、R分别在D、C中能够被稀疏的表示,并且具有相同的表示系数G;每一时刻把所有局部传感器得到的航迹状态向量表示成一个向量,找出该向量在含噪声字典中的稀疏表示系数,通过无噪声字典D和稀疏表示系数得到融合后的全局航迹状态向量。本发明能够得到了比线性最小均方误差(LMMSE)融合方法更好的融合效果;同时,能够融合各种各样的信息。

Description

基于稀疏表示的多传感器航迹融合方法
技术领域
本发明涉及微波行业目标追踪技术领域,尤其涉及一种基于稀疏表示的多传感器航迹融合方法。
背景技术
依据多传感器的信息流通形式及对信息的综合处理层次,多传感器数据融合目标跟踪系统中多源信息的融合处理结构主要有三种类型:集中式、分布式和混合式。分布式融合系统结构具有较强的生存能力和稳定性,对于数据传输的信道带宽和融合中心的计算能力要求都相对较低,所以分布式结构在实际应用中成为一种重要的选择。
分布式结构中,各传感器首先在自身处理器下完成单传感器目标跟踪,然后将局部传感器航迹送往融合中心,融合中心使用航迹融合算法把多个局部传感器航迹融合为全局航迹,而航迹融合则是指把表示同一目标的多个局部航迹融合为一个全局航迹。目前,人们已经提出了一些多传感器航迹融合方法,主要有简单凸组合航迹融合算法、互协方差组合航迹融合算法、协方差交叉航迹融合算法、伪量测融合算法、线性最小均方差估计(LMMSE)融合方法等。LMMSE融合方法具有简单、线性、无偏等优点,因而被广泛用于分布式多传感器目标跟踪中。
近年来,稀疏表示问题已成为人们的研究热点。信号的稀疏表示就是将信号投影到正交变换基时,绝大部分变换系数的绝对值很小,所得到的变换向量是稀疏或者近似稀疏的。传统的信号表示理论基于正交线性变换,但许多信号是各种自然现象的混合体,这些混合信号在单一的正交基变换中不能非常有效地表现出来。最近几年,研究人员在改变传统信号表示方面取得了很大的进展。新的信号表示理论的基本思想是:基函数用称之为字典的超完备的冗余函数系取代,字典的选择尽可能好的符合被逼近信号的结构,其构成可以没有任何限制,字典中的元素被称为原子。从字典中找到m个原子的最佳线性组合来表示一个信号,称作信号的稀疏逼近或高度非线性逼近。
然而,在实现本发明的过程中,申请人发现现有的LMMSE融合方法的融合效果并不理想。业内亟需一种具有更好融合效果的多传感器航迹融合方法。
发明内容
(一)要解决的技术问题
鉴于上述技术问题,本发明提供了一种基于稀疏表示的多传感器航迹融合方法,以提高航迹融合效果。
(二)技术方案
本发明基于稀疏表示的多传感器航迹融合方法包括:
步骤A:根据各个局部传感器航迹的当前时刻状态信息构建无噪声训练样本集T;
步骤B:根据传感器产生的局部传感器航迹构建含噪声训练样本集R;
步骤C:基于无噪声训练样本集T和含噪声训练样本集R,建立字典训练模型;
步骤D:对字典训练模型进行训练,学习出了一对无噪声、含噪声字典D、C,使得无噪声、含噪声训练样本T、R分别在无噪声、含噪声字典D、C中能够被稀疏的表示,并且具有相同的表示系数G;以及
步骤E:每一时刻把所有局部传感器得到的航迹状态向量表示成一个向量,找出该向量在含噪声字典中的稀疏表示系数,通过无噪声字典D和稀疏表示系数得到融合后的全局航迹状态向量。
(三)有益效果
从上述技术方案可以看出,本发明基于稀疏表示的多传感器航迹融合方法具有以下有益效果:
(1)基于多传感器航迹融合和信号的稀疏表示,提出了一种基于稀疏表示的多传感器航迹融合方法,能够得到了比线性最小均方误差(LMMSE)融合方法更好的融合效果;
(2)把信号的稀疏表示应用在多传感器航迹融合中,给出了一个多源信息融合的框架,能够融合各种各样的信息。
附图说明
图1为根据本发明实施例基于稀疏表示的多传感器航迹融合方法的流程图;
图2给出了仿真中的目标真实轨迹和传感器位置分布;
图3给出了仿真中目标1滤波轨迹x向均方根误差;
图4给出了仿真中目标1滤波轨迹y向均方根误差;
图5给出了仿真中目标2滤波轨迹x向均方根误差;
图6给出了仿真中目标2滤波轨迹y向均方根误差。
具体实施方式
本发明首先基于给定的样本航迹构建训练样本集;然后通过字典学习给出一对能够紧密表示训练样本的含噪声字典和无噪声字典;最后在每一跟踪时刻把所有传感器得到的局部航迹状态向量按照一定的格式表示成一个向量,在含噪声字典中找出该向量的稀疏表示系数,通过无噪声字典和稀疏表示系数得到融合后的全局航迹状态向量。
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。需要说明的是,在附图或说明书描述中,相似或相同的部分都使用相同的图号。并且,附图中未绘示或描述的实现方式,为所属技术领域中普通技术人员所知的形式。
在本发明的一个示例性实施例中,提供了一种基于稀疏表示的多传感器航迹融合方法。图1为根据本发明实施例基于稀疏表示的多传感器航迹融合方法的流程图。如图1所示,本实施例基于稀疏表示的多传感器航迹融合方法包括:
步骤A:根据各个局部传感器航迹的当前时刻状态信息构建无噪声训练样本集T;
该步骤A具体包括:
子步骤A1:在每隔Δ(Δ为整数,Δ≥1)个跟踪时刻,根据各个局部传感器航迹的当前时刻状态信息,限定一个位置范围和速度范围,在这个范围内随机生成n条样本航迹{t1,t2,…,tn},其中,n为样本航迹数目,ti表示第i条样本航迹,(i=1,2,…,n);
该n条样本航迹中包括匀速直线运动目标航迹、机动目标航迹等。并且,样本航迹数目n需要基于实际的计算性能和需求提前设定,跟踪时刻的个数、位置范围和速度范围由用户根据自身需要设定。
其中,对于样本航迹ti,对应着一个由各个时刻状态向量组成的矩阵:
Ti=[xi(1),xi(2),…,xi(ki)],i=1,2,…,n(1)
其中,ki为样本航迹ti的跟踪步数,xi(k)表示样本航迹ti在第k个跟踪时刻的状态向量。
子步骤A2:n条样本航迹中每条样本航迹的由各个时刻状态向量组成的矩阵构成无噪声训练样本集T=[T1,T2,…,Tn]。
步骤B:根据传感器产生的局部传感器航迹构建含噪声训练样本集R;
该步骤B具体包括:
子步骤B1:假定传感器数目为Ns,每个传感器产生的局部传感器航迹称为含噪声航迹,对于样本航迹ti(i=1,2,…,n),传感器Sl(l=1,2,…,Ns)有一个含噪声航迹与其对应,该含噪声航迹对应着一个由各个时刻含噪声状态向量组成的矩阵Uli
Uli=[uli(1),uli(2),…,uli(ki)],l=1,2,…,Ns,i=1,2,…,n(2)
子步骤B2:为了更好地学习含噪声航迹的特征,在Uli中提取航迹的方向信息,与uli(k)对应,定义rli(k)如下:
r l i ( k ) = cos < u l i ( 2 ) - u l i ( 1 ) , u l i ( 3 ) - u l i ( 2 ) > , k = 1 , 2 cos < u l i ( k - 1 ) - u l i ( k - 2 ) , u l i ( k ) - u l i ( k - 1 ) > , k = 3 , ... , k i - - - ( 3 )
令:
R l i = &lsqb; u l i ( 1 ) r l i ( 1 ) , u l i ( 2 ) r l i ( 2 ) , ... , u l i ( k i ) r l i ( k i ) &rsqb; , l = 1 , 2 , ... , N s , i = 1 , 2 , ... , n - - - ( 4 )
与Uli相比,Rli不仅含有含噪声航迹每个时刻的状态向量,而且还包含每个时刻的方向信息。
子步骤B3:构建传感器Sl(l=1,2,…,Ns)对应的含噪声训练样本集Rl=[Rl1,Rl2,…,Rln];
子步骤B4:由所有传感器含噪声训练样本集构建含噪声训练样本集R:
R = R 1 R 2 . . . R N s - - - ( 5 )
此时,我们得到了最终用于学习无噪声字典和含噪声字典的无噪声训练样本集T和含噪声训练样本集R。
步骤C:基于无噪声训练样本集T和含噪声训练样本集R,建立字典训练模型;
该步骤C具体包括:
子步骤C1:基于无噪声训练样本集T和含噪声训练样本集R,无噪声字典D和含噪声字典C训练模型如下:
m i n { C , D , G } 1 c | R - C G | | 2 2 + 1 d | T - D G | | 2 2 + &lambda; ( 1 c + 1 d ) | | G | | 1 - - - ( 6 )
其中,G表示系数矩阵,在求解该训练模型可同时得出,c为矩阵R的行数,d为矩阵T的行数,λ为正则化参数(可取值为0.2)。表达式中的第一项和第二项是为了使得含噪声、无噪声训练样本分别在含噪声、无噪声字典中具有相同的表示系数,第三项是为了使得表示系数更具稀疏性。
子步骤C2:构建上述训练模型的等价形式:
m i n { C , D , G } | | Y - E G | | 2 2 + &lambda; | | G | | 1 - - - ( 7 )
其中:
相对于第一个模型要训练两个字典而言,该等价的模型可以通过单一字典的训练达到同样效果。
步骤D:对字典训练模型进行训练,学习出了一对无噪声、含噪声字典D、C,使得无噪声、含噪声训练样本T、R分别在D、C中能够被稀疏的表示,并且具有相同的表示系数G;
在本实施例中,基于上述等价的单一字典训练模型,利用K-SVD算法,依据无噪声、含噪声训练样本T、R分别在D、C中能够被最稀疏表示的准则,迭代求解出一对最优的无噪声、含噪声字典D、C,使得训练样本T、R分别在D、C中能够被稀疏表示,并且具有相同的表示系数G。
该步骤D具体包括:
Step1:用随机生成方法初始化字典D和C;
Step2:基于单一字典训练模型,利用K-SVD算法迭代求解出一对能够分别稀疏表示T、R的字典D、C。
步骤E:每一时刻把所有局部传感器得到的航迹状态向量表示成一个向量,找出该向量在含噪声字典中的稀疏表示系数,通过无噪声字典D和稀疏表示系数得到融合后的全局航迹状态向量。
假设在某一跟踪时刻k(k≥3),Ns个传感器给出的同一目标在该时刻的航迹状态向量分别为并已知该目标在时刻k-2、k-1的状态向量分别为y(k-2)、y(k-1),令:
z l ( k ) = y 1 ( k ) c o s < y ( k - 1 ) - y ( k - 2 ) , y ( k ) - y l ( k - 1 ) > , l = 1 , 2 , ... , N s , k &GreaterEqual; 3 - - - ( 8 )
z = z 1 ( k ) z 2 ( k ) . . . z N s ( k ) , k &GreaterEqual; 3 - - - ( 9 )
求解如下模型,得到向量z在含噪声字典C中的表示系数向量g:
m i n g | | C g - z | | 2 2 + &lambda; | | g | | 1 - - - ( 10 )
融合后的状态向量y(k)为:
y(k)=Dg,k≥3(11)
其中,由航迹方向信息的定义,当k=1,2时,因为不能提取航迹的方向信息,所以要单独计算。
当跟踪时刻k=1,2时,令:
z ~ = y 1 ( k ) y 2 ( k ) . . . y N s ( k ) , k = 1 , 2 - - - ( 12 )
在含噪声字典C中选取与各个传感器航迹状态向量对应的行构成新的含噪声字典求解如下模型:
m i n g ~ | | C ~ g ~ - z ~ | | 2 2 + &lambda; | | g ~ | | 1 - - - ( 13 )
得到向量在新含噪声字典中的表示系数向量则融合后的状态向量y(k)为:
y ( k ) = D g ~ , k = 1 , 2 - - - ( 14 )
下面通过仿真的方法对本实施例进行验证。在仿真中,我们使用两个传感器对两个目标进行跟踪。以融合中心为坐标原点,各传感器的位置分别为(-30000m,55000m)、(-80000m,35000m)。两个目标均作匀速直线运动,目标的状态向量由目标的x和y轴位置、x和y轴速度构成,两个目标的初始状态向量分别为
(-40000m,40000m,-400m/s,90m/s)
(-40000m,45000m,-450m/s,-20m/s)
各个传感器的性能参数相同,参数设置如下:扫描周期为2s,探测概率为1,x轴和y轴测量误差标准差均为100m。仿真的跟踪步数为40,过程噪声标准差为10m。图2给出了两个目标的真实轨迹和传感器分布,“△”表示传感器所在位置。
在每隔20个跟踪时刻,根据各个局部传感器航迹的位置信息和速度信息,在一定的位置和速度范围内随机生成200条无噪声样本航迹,其中包含匀速直线运动目标航迹和机动目标航迹。给无噪声航迹加入适当的过程噪声得到含噪声样本航迹,过程噪声标准差为10m。通过字典学习得到含噪声字典和无噪声字典,字典原子个数为2048。
针对上述给定的仿真场景和传感器参数设置,使用分布式多传感器多假设跟踪方法进行数据关联和航迹关联,分别使用LMMSE融合方法和本实施例进行多传感器航迹融合。图3和图4分别给出了目标1滤波轨迹在各个时刻的x向和y向均方根误差。图5和图6分别给出了目标2滤波轨迹在各个时刻的x向和y向均方根误差。蒙特卡洛仿真次数为50。
从图3~图6可以看出,当跟踪稳定后,与LMMSE融合方法相比,本实施例得到的滤波轨迹在各个时刻有更低的均方根误差,也就是说,本实施例融合效果优于LMMSE融合方法。
至此,已经结合附图对本实施例进行了详细描述。依据以上描述,本领域技术人员应当对本发明基于稀疏表示的多传感器航迹融合方法有了清楚的认识。
此外,上述对各元件和方法的定义并不仅限于实施例中提到的各种具体结构、形状或方式,本领域普通技术人员可对其进行简单地更改或替换,例如:
(1)rli(k)定义还可以改成如下形式:
r l i ( k ) = cos < u l i ( 1 ) - u l i ( 2 ) , u l i ( 2 ) - u l i ( 3 ) > , k = 1 , 2 cos < u l i ( k - 2 ) - u l i ( k - 1 ) , u l i ( k - 1 ) - u l i ( k ) > , k = 3 , ... , k i - - - ( 14 )
(2)K-SVD方法可以用PCA方法来代替;
另外,虽然本文可提供包含特定值的参数的示范,但应了解,参数无需确切等于相应的值,而是可在可接受的误差容限或设计约束内近似于相应的值。实施例中提到的方向用语,例如“上”、“下”、“前”、“后”、“左”、“右”等,仅是参考附图的方向。因此,使用的方向用语是用来说明并非用来限制本发明的保护范围。
综上所述,本发明基于多传感器航迹融合和信号的稀疏表示,提出了一种基于稀疏表示的多传感器航迹融合方法,能够得到了比线性最小均方误差(LMMSE)融合方法更好的融合效果。同时,把信号的稀疏表示应用在多传感器航迹融合中,给出了一个多源信息融合的框架,能够融合各种各样的信息。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种基于稀疏表示的多传感器航迹融合方法,其特征在于,包括:
步骤A:根据各个局部传感器航迹的当前时刻状态信息构建无噪声训练样本集T;
步骤B:根据传感器产生的局部传感器航迹构建含噪声训练样本集R;
步骤C:基于无噪声训练样本集T和含噪声训练样本集R,建立字典训练模型;
步骤D:对字典训练模型进行训练,学习出了一对无噪声、含噪声字典D、C,使得无噪声、含噪声训练样本T、R分别在无噪声、含噪声字典D、C中能够被稀疏的表示,并且具有相同的表示系数G;以及
步骤E:每一时刻把所有局部传感器得到的航迹状态向量表示成一个向量,找出该向量在含噪声字典中的稀疏表示系数,通过无噪声字典D和稀疏表示系数得到融合后的全局航迹状态向量。
2.根据权利要求1所述的多传感器航迹融合方法,其特征在于,所述步骤A具体包括:
子步骤A1:在每隔Δ个跟踪时刻,根据各个局部传感器航迹的当前时刻状态信息,限定一个位置范围和速度范围,在这个范围内随机生成n条样本航迹{t1,t2,…,tn},其中,n为样本航迹数目,ti表示第i条样本航迹,(i=1,2,…,n);
其中,对于样本航迹ti,对应着一个由各个时刻状态向量组成的矩阵:
Ti=[xi(1),xi(2),…,xi(ki)],i=1,2,…,n
其中,ki为样本航迹ti的跟踪步数,xi(k)表示样本航迹ti在第k个跟踪时刻的状态向量;
子步骤A2:由n条样本航迹中每条样本航迹的由各个时刻状态向量组成的矩阵构成无噪声训练样本集T=[T1,T2,…,Tn]。
3.根据权利要求2所述的多传感器航迹融合方法,其特征在于,所述步骤B具体包括:
子步骤B1:假定传感器数目为Ns,每个传感器产生的局部传感器航迹称为含噪声航迹,对于样本航迹ti(i=1,2,…,n),传感器Sl(l=1,2,…,Ns)有一个含噪声航迹与其对应,该含噪声航迹对应着一个由各个时刻含噪声状态向量组成的矩阵Uli
Uli=[uli(1),uli(2),…,uli(ki)],l=l,2,…,Ns,i=1,2,…,n(2)
子步骤B2:为了更好地学习含噪声航迹的特征,在Uli中提取航迹的方向信息,与uli(k)对应,定义rli(k)如下:
r l i ( k ) = c o s < u l i ( 2 ) - u l i ( 1 ) , u l i ( 3 ) - u l i ( 2 ) > , k = 1 , 2 cos < u l i ( k - 1 ) - u l i ( k - 2 ) , u l i ( k ) - u l i ( k - 1 ) > , k = 3 , ... , k i
令:
R l i = &lsqb; u l i ( 1 ) r l i ( 1 ) , u l i ( 2 ) r l i ( 2 ) , ... , u l i ( k i ) r l i ( k i ) &rsqb; , l = 1 , 2 , ... , N s , i = 1 , 2 , ... , n
子步骤B3:构建传感器Sl(l=1,2,…,Ns)对应的含噪声训练样本集Rl=[Rl1,Rl2,…,Rln];
子步骤B4:由所有传感器含噪声训练样本集构建含噪声训练样本集R:
R = R 1 R 2 . . . R N s .
4.根据权利要求3所述的多传感器航迹融合方法,其特征在于,所述步骤C具体包括:
子步骤C1:基于无噪声训练样本集T和含噪声训练样本集R,无噪声字典D和含噪声字典C训练模型如下:
min { C , D , G } 1 c | R - C G | | 2 2 + 1 d | T - D G | | 2 2 + &lambda; ( 1 c + 1 d ) | | G | | 1
其中,G表示系数矩阵,在求解该训练模型可同时得出,c为矩阵R的行数,d为矩阵T的行数,λ为正则化参数;
子步骤C2:构建上述训练模型的等价形式:
m i n { C , D , G } | | Y - E G | | 2 2 + &lambda; | | G | | 1
其中:
5.根据权利要求4所述的多传感器航迹融合方法,其特征在于,所述步骤D具体包括:基于所述字典训练模型,利用K-SVD算法,依据无噪声、含噪声训练样本T、R分别在D、C中能够被最稀疏表示的准则,迭代求解出一对最优的无噪声、含噪声字典D、C,使得训练样本T、R分别在D、C中能够被稀疏表示,并且具有相同的表示系数G。
6.根据权利要求5所述的多传感器航迹融合方法,其特征在于,所述步骤E具体包括:
假设在某一跟踪时刻k(k≥3),Ns个传感器给出的同一目标在该时刻的航迹状态向量分别为并已知该目标在时刻k-2、k-1的状态向量分别为y(k-2)、y(k-1),令:
z l ( k ) = y l ( k ) c o s < y ( k - 1 ) - y ( k - 2 ) , y ( k ) - y l ( k - 1 ) > , l = 1 , 2 , ... , N s , k &GreaterEqual; 3
z = z 1 ( k ) z 2 ( k ) . . . z N s ( k ) , k &GreaterEqual; 3
求解如下模型,得到向量z在含噪声字典C中的表示系数向量g:
m i n g | | C g - z | | 2 2 + &lambda; | | g | | 1
融合后的状态向量y(k)为:
y(k)=Dg,k≥3。
7.根据权利要求6所述的多传感器航迹融合方法,其特征在于,所述步骤E还包括:
当跟踪时刻k=1,2时,令:
z ~ = y 1 ( k ) y 2 ( k ) . . . y N s ( k ) , k = 1 , 2
在含噪声字典C中选取与各个传感器航迹状态向量对应的行构成新的含噪声字典求解如下模型:
m i n g ~ | | C ~ g ~ - z ~ | | 2 2 + &lambda; | | g ~ | | 1
得到向量在新含噪声字典中的表示系数向量则融合后的状态向量y(k)为:
k=1,2。
CN201610196780.0A 2016-03-31 2016-03-31 基于稀疏表示的多传感器航迹融合方法 Pending CN105825239A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610196780.0A CN105825239A (zh) 2016-03-31 2016-03-31 基于稀疏表示的多传感器航迹融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610196780.0A CN105825239A (zh) 2016-03-31 2016-03-31 基于稀疏表示的多传感器航迹融合方法

Publications (1)

Publication Number Publication Date
CN105825239A true CN105825239A (zh) 2016-08-03

Family

ID=56525502

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610196780.0A Pending CN105825239A (zh) 2016-03-31 2016-03-31 基于稀疏表示的多传感器航迹融合方法

Country Status (1)

Country Link
CN (1) CN105825239A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107463967A (zh) * 2017-08-25 2017-12-12 中国人民解放军海军航空工程学院 多源航迹关联机器学习系统
CN108205127A (zh) * 2017-12-25 2018-06-26 电子科技大学 一种基于稀疏表示的水声信号处理方法
CN112149623A (zh) * 2020-10-16 2020-12-29 中国电子科技集团公司第三研究所 一种自适应多传感器信息融合系统、方法及存储介质
CN113361562A (zh) * 2021-04-20 2021-09-07 武汉理工大学 一种用于动力电池反应控制模块的多传感器融合方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102322861A (zh) * 2011-05-31 2012-01-18 电子科技大学 一种航迹融合方法
CN104008533A (zh) * 2014-06-17 2014-08-27 华北电力大学 基于分块自适应特征跟踪的多传感器图像融合方法
CN105093198A (zh) * 2015-07-28 2015-11-25 西安电子科技大学 一种分布式外辐射源雷达组网探测的航迹融合方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102322861A (zh) * 2011-05-31 2012-01-18 电子科技大学 一种航迹融合方法
CN104008533A (zh) * 2014-06-17 2014-08-27 华北电力大学 基于分块自适应特征跟踪的多传感器图像融合方法
CN105093198A (zh) * 2015-07-28 2015-11-25 西安电子科技大学 一种分布式外辐射源雷达组网探测的航迹融合方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
WANG HUAN ET AL.: ""Sparse Representation Based Distributed Multisensor Track Fusion"", 《2015 2ND INTERNATIONAL CONFERENCE ON INFORMATION SCIENCE AND CONTROL ENGINEERING》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107463967A (zh) * 2017-08-25 2017-12-12 中国人民解放军海军航空工程学院 多源航迹关联机器学习系统
CN108205127A (zh) * 2017-12-25 2018-06-26 电子科技大学 一种基于稀疏表示的水声信号处理方法
CN108205127B (zh) * 2017-12-25 2021-11-09 电子科技大学 一种基于稀疏表示的水声信号处理方法
CN112149623A (zh) * 2020-10-16 2020-12-29 中国电子科技集团公司第三研究所 一种自适应多传感器信息融合系统、方法及存储介质
CN112149623B (zh) * 2020-10-16 2023-09-08 中国电子科技集团公司第三研究所 一种自适应多传感器信息融合系统、方法及存储介质
CN113361562A (zh) * 2021-04-20 2021-09-07 武汉理工大学 一种用于动力电池反应控制模块的多传感器融合方法及装置
CN113361562B (zh) * 2021-04-20 2024-03-15 武汉理工大学 一种用于动力电池反应控制模块的多传感器融合方法及装置

Similar Documents

Publication Publication Date Title
CN106767780B (zh) 基于Chebyshev多项式插值逼近的扩展椭球集员滤波方法
CN104392047B (zh) 一种基于平稳滑翔弹道解析解的快速弹道规划方法
CN103853908B (zh) 一种自适应交互式多模型的机动目标跟踪方法
CN105825239A (zh) 基于稀疏表示的多传感器航迹融合方法
CN102322861B (zh) 一种航迹融合方法
CN107677997A (zh) 基于GLMB滤波和Gibbs采样的扩展目标跟踪方法
CN109990786A (zh) 机动目标跟踪方法及装置
CN103065037B (zh) 非线性系统基于分散式容积信息滤波的目标跟踪方法
CN109285348A (zh) 一种基于双向长短时记忆网络的车辆行为识别方法及系统
CN105138006A (zh) 一种时滞非线性多智能体系统的协同追踪控制方法
CN108665485A (zh) 一种基于相关滤波与孪生卷积网络融合的目标跟踪方法
CN107024863A (zh) 一种避免微分爆炸的uuv轨迹跟踪控制方法
JP5905481B2 (ja) 判定方法及び判定装置
CN107783944A (zh) 一种多模型自校准无迹卡尔曼滤波方法
CN105046717A (zh) 一种鲁棒性的视频目标对象跟踪方法
CN110276952A (zh) 一种交通信息模拟采集方法及装置
CN103003846A (zh) 关节区域显示装置、关节区域检测装置、关节区域归属度计算装置、关节状区域归属度计算装置以及关节区域显示方法
CN104899896B (zh) 一种基于子空间特征的多任务学习目标跟踪方法
CN107727097A (zh) 基于机载分布式位置姿态测量系统的信息融合方法和装置
CN103839274B (zh) 一种基于几何比例关系的扩展目标跟踪方法
CN103839280B (zh) 一种基于视觉信息的人体姿态跟踪方法
Chehelgami et al. Safe deep learning-based global path planning using a fast collision-free path generator
CN110209175A (zh) 基于分布式有限时间状态观测器的多智能车辆编队方法
CN104750998B (zh) 基于强度滤波器的被动多传感器目标跟踪方法
Yan et al. A novel fastslam algorithm based on iterated unscented kalman filter

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20160803

WD01 Invention patent application deemed withdrawn after publication