CN103345735A - 一种基于Kalman滤波器的压缩时空多传感器融合跟踪方法 - Google Patents

一种基于Kalman滤波器的压缩时空多传感器融合跟踪方法 Download PDF

Info

Publication number
CN103345735A
CN103345735A CN2013102983686A CN201310298368A CN103345735A CN 103345735 A CN103345735 A CN 103345735A CN 2013102983686 A CN2013102983686 A CN 2013102983686A CN 201310298368 A CN201310298368 A CN 201310298368A CN 103345735 A CN103345735 A CN 103345735A
Authority
CN
China
Prior art keywords
vector
space
matrix
fusion
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013102983686A
Other languages
English (en)
Other versions
CN103345735B (zh
Inventor
敬忠良
云霄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jiaotong University
Original Assignee
Shanghai Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University filed Critical Shanghai Jiaotong University
Priority to CN201310298368.6A priority Critical patent/CN103345735B/zh
Publication of CN103345735A publication Critical patent/CN103345735A/zh
Application granted granted Critical
Publication of CN103345735B publication Critical patent/CN103345735B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于Kalman滤波器的压缩时空融合跟踪方法,所述方法包括:利用压缩感知原理,将高维的可见光与红外样本图像块分别表示为各传感器相应的压缩特征向量;设计一个关联特征矩阵,将各传感器的压缩特征向量结合起来;用似然函数来建立一个空间系数矩阵;设计一个时间系数矩阵,并基于Kalman滤波器对其进行估计;结合时间与空间系数矩阵求得时空系数矩阵;计算出一个新的融合特征向量,并将其反馈以训练滤波器。该融合过程不仅具备Kalman估计特征,同时还在时间和空间两个领域完成,整个融合任务是一个闭环系统,并且视频的每一帧仅用一个时空系数矩阵就可以完成。

Description

一种基于Kalman滤波器的压缩时空多传感器融合跟踪方法
技术领域
本发明涉及视频目标跟踪技术领域,具体是一种基于Kalman滤波器的压缩时空多传感器融合跟踪方法。
背景技术
视频目标跟踪作为计算机视觉研究的核心课题之一,是一门新兴的技术,它融合了图像处理、模式识别、人工智能、自动控制以及计算机等许多领域的先进技术。视频可以看成是许多运动图像的顺序组合,而运动图像分析是各种图像处理方法的一种综合应用。
虽然最近几十年视频目标跟踪问题获得了广泛的研究并取得了长足的进步,但是由于现实环境中的许多情况都会影响视频图像中对目标的可靠观测,因此设计出能够在各种复杂环境下准确、快速、稳定地跟踪视频目标的方法,仍然是一项挑战性的任务和急需解决的课题。
通过融合多传感器系统的信息,可以较好的解决视频跟踪问题。与单传感器系统相比,多传感器信息融合处理具有的优点是:多传感器信息融合处理可以获得更精确、更全面的信息,因为每种传感器的噪声是不相关的,融合处理后可明显抑制噪声,降低不确定性;不同传感器采集的信息存在互补性,可以补偿单传感器的不确定性和测量范围的局限性,从微波、毫米波、紫外、可见光、红外、激光到声波,各种传感器的作用范围逐步扩展到整个电磁波谱;多传感器信息融合处理可以增加系统的可靠性和稳定性,一些传感器失效时,系统仍可正常运行。
近几年来,可见光和红外的融合应用在多传感器融合跟踪方面被投以更多的关注。可见光和红外成像传感器是两种常用的传感器,他们的工作机理不同,性能也各有差异。红外传感器获取地面目标的红外辐射,记录的是目标自身的红外辐射信息。由于红外传感器是靠探测目标与背景间的热辐射差异来识别目标的,因此具有特殊的识别伪装能力,如能发现隐藏在树林和草丛中的人员、车辆与火炮。尽管红外传感器对热目标的探测性能较好,但其对场景的亮度变化不敏感,成像清晰度低且不利于人眼判读。可见光传感器只敏感于目标场景的反射,而与目标场景的热对比度无关。但其成像传感器清晰度较高,能够提供目标所在场景的细节信息。可见光与红外传感器的融合能够互相取长补短,有利于综合红外图像较好的目标指示特性和可见光图像的清晰场景信息。例如,在区分高温度的人和相对冷温度的背景方面,红外摄像机更能够发挥其作用。然而,当一个行人目标穿过一群人时,在红外单传感器跟踪中可能会丢失。因为在红外图像中,人的形状极其类似、不易分辨。而可见光图像可以通过衣着颜色和纹理的区别,将不同人区分开,从而成功跟踪目标。
近几年,多传感器融合跟踪问题中,为每个传感器分别的特征模型寻找到准确的融合系数是成功跟踪的关键所在。现有融合跟踪技术大多单独分别处理多传感器的特征,且仅仅从空间上处理融合系数。这些技术没有考虑各传感器特征模型间的关系,空间融合系数又使其缺少时空适用性。
发明内容
有鉴于现有技术的上述缺陷,本发明的目的是提供一种基于Kalman滤波器的压缩时空多传感器融合跟踪方法。
本发明从传感器采集的视频信息中提取图像帧,对每一帧图像进行循环处理。本发明着重对可见光与红外传感器融合跟踪。该融合过程不仅具备Kalman估计特征,同时还在时间和空间两个领域完成。各传感器特征的融合系数通过矩阵进行结合,而非简单的数值运算,因此可以将特征间的关系考虑进去。利用Kalman滤波器特性,由估计状态向量得到的结果返回滤波器作为观测向量,因此整个融合任务是一个闭环系统,并且视频的每一帧仅用一个时空系数矩阵就可以完成。
为实现上述目的,本发明的技术方案是:
一种基于Kalman滤波器的压缩时空融合跟踪方法,其步骤如下:
步骤1)输入可见光与红外图像;
步骤2)对所述可见光和红外图像的前一帧图像的目标取样本图像块,其中,第一帧的目标位置手工框定,利用压缩感知原理,将所述样本图像块高维空间映射为低维空间,在可见光与红外样本中分别计算样本压缩特征向量,得到可见光与红外的低维特征向量;
步骤3)通过所述各传感器的特征向量得到关联特征向量;
步骤4)通过所述各传感器特征向量与模板的似然函数建立空间系数矩阵;
步骤5)基于Kalman滤波器对所述时间系数矩阵进行估计,根据所述Kalman滤波器在不同时刻进行预测来估计得到时间系数矩阵;
步骤6)结合所述时间与空间系数矩阵计算得到时空系数矩阵;
步骤7)所述关联特征向量和所述时空系数矩阵相乘得到融合特征向量,并将所述融合特征向量反馈用来训练所述Kalman滤波器,形成一个闭环系统;
步骤8)通过贝叶斯分类器对所述融合特征向量进行建模,所述分类器值的最大值对应的样本框位置即为跟踪结果位置,得到跟踪结果后,提取正负样本,并更新所述贝叶斯分类器,为下一帧跟踪做准备;
步骤9)输出所述跟踪位置、所述分类器以及所述Kalman滤波器参数。
进一步地,所述多传感器的数目为2~100个。
进一步地,所述步骤2)提取所述样本压缩向量步骤如下:
步骤2-1)提取样本图像块:
Figure BDA00003519387200031
为样本图像块的多尺度高维图像空间;
步骤2-2)引入一个随机矩阵
Figure BDA00003519387200032
Figure BDA00003519387200033
压缩为低维空间
v=Rx
其中,m<<n,随机矩阵R定义为
r ij = s × 1 with probability 1 2 s 0 with probability 1 - 1 s - 1 with probability 1 2 s .
取s=2 or 3;
步骤2-3)得到可见光与红外的低维特征向量 c ∈ { vis , IR } .
进一步地,所述步骤3)中所述关联特征向量由所述已知特征向量
Figure BDA00003519387200038
其中vis和IR分别表示可见光和红外传感器。每个
Figure BDA00003519387200039
表示尺寸为1×k的第c个传感器的第i个特征值向量,其中m是Haar-like特征数,k是样本框尺寸,通过融合规则转化为一个新的关联特征向量 V = [ v vis T , v IR T ] T .
进一步地,所述步骤4)中所述空间系数矩阵创建步骤如下:
步骤4-1)通过当前帧特征向量
Figure BDA000035193872000311
和前一帧特征向量
Figure BDA000035193872000312
建立传感器模型,其中t表示帧数,当为当前帧时,可以省略;
步骤4-2)将
Figure BDA000035193872000313
作为目标模板;
步骤4-3)用似然函数定义传感器似然向量
Figure BDA000035193872000314
Figure BDA000035193872000315
其中控制参数λc用来控制每个传感器特征的重要性,
Figure BDA000035193872000316
是一个用欧氏距离定义的距离向量 ρ c ( i ) = 1 N ( i ) Σ j = 1 k | v c ( i ) ( j ) ( t ) - v c ( i ) ( j ) ( t - 1 ) | 2 , i = 1 , . . . , m , 其中N是在时间范围内的归一化向量,定义为 N ( i ) = Σ j = 1 k ( [ v c ( i ) ( j ) ( t ) ] 2 + [ v c ( i ) ( j ) ( t - 1 ) ] 2 ) ;
步骤4-4)预测权值向量的第i个元素可以在传感器范围内归一化定义为:
w c ( i ) = p c ( i ) / Σ c p c ( i ) , c ∈ { vis , IR } , i = 1 , . . . , m
步骤4-5)定义一个2m×2m的对角化空间系数矩阵
C S = diag { w vis ( 1 ) , · · · , w vis ( m ) , w IR ( 1 ) , · · · , w IR ( m ) }
可以通过矩阵CS中的置信度得到各传感器的预测权值,得到V和CS后,即对对各传感器的特征极其对应的权值在空间上做了描述。
进一步地,所述步骤5)中所述时间系数矩阵创建步骤如下:
步骤5-1)利用Kalman滤波器中的布朗随机游走模型估计所述时间系数矩阵CT
步骤5-2)结合关联特征向量V和空间系数矩阵CS,求得融合特征向量VF
步骤5-3)将VF作为基础,计算Kalman滤波器的观测值,作为反馈更新滤波器,使得整个融合任务是一个闭环系统。
进一步地,所述步骤8)中所述分类器跟踪过程如下:
步骤8-1)用贝叶斯分类器H(v)对融合特征向量VF其进行建模:
H ( v ) = log ( ∏ i = 1 n p ( v i | y = 1 ) p ( y = 1 ) ∏ i = 1 n p ( v i | y = 0 ) p ( y = 0 ) ) = Σ i = 1 n log ( p ( v i | y = 1 ) p ( v i | y = 0 ) ) ,
其中,假设初始值p(y=1)=p(y=0),且y∈{0,1}表示正负样本标签,假设分类器H(v)中的条件分布p(vi|y=1)和p(vi|y=0)是贝叶斯分布,其参数为 ( μ i 1 , σ i 1 , μ i 0 , σ i 0 ) , p ( v i | y = 1 ) ~ N ( μ i 1 , σ i 1 ) , p ( v i | y = 0 ) ~ N ( μ i 0 , σ i 0 ) ;
步骤8-2)在映射空间中,对H(v)中的标量参数进行增量更新:
μ i 1 ← λμ i 1 + ( 1 - λ ) μ 1
σ i 1 ← λ ( σ i 1 ) 2 + ( 1 - λ ) ( σ 1 ) 2 + λ ( 1 - λ ) ( μ i 1 - μ 1 ) 2 ,
其中训练参数λ>0,且 σ 1 = 1 n Σ k = 0 | y = 1 n - 1 ( v i ( k ) - μ 1 ) 2 , μ 1 = 1 n Σ k = 0 | y = 1 n - 1 v i ( k ) ;
步骤8-3)跟踪结果位置既是分类器值H(v)的最大值对应的样本框位置,得到跟踪结果后,在目标周围采取正样本,在离目标一定距离范围内采取负样本;
步骤8-4)更新分类器,为下一帧跟踪做准备。
本发明的基于Kalman滤波器的压缩时空融合跟踪方法的融合过程不仅具备Kalman估计特征,同时还在时间和空间两个领域完成。各传感器特征的融合系数通过矩阵进行结合,而非简单的数值运算,因此可以将特征间的关系考虑进去。利用Kalman滤波器特性,由估计状态向量得到的结果返回滤波器作为观测向量,因此整个融合任务是一个闭环系统,并且视频的每一帧仅用一个时空系数矩阵就可以完成。克服了现有技术中存在的没有考虑各传感器特征模型间的关系,且空间融合系数缺少时空适用性的不足。
附图说明
图1为本发明一个较佳实施例中的基于Kalman滤波器的压缩时空融合跟踪方法算法流程图;
图2为本发明一个较佳实施例中的融合规则算法理论框架;
图3为本发明一个较佳实施例中的在第一组视频上试验的跟踪误差对比曲线图;
图4为本发明一个较佳实施例中的在第一组视频上试验的融合系数图;
图5为本发明一个较佳实施例中的在第二组视频上试验的跟踪误差对比曲线图;
图6为本发明一个较佳实施例中的在第二组视频上试验的融合系数图;
图7为本发明一个较佳实施例中的在第三组视频上试验的跟踪误差对比曲线图。
图8为本发明一个较佳实施例中的在第二组视频上试验的融合系数图。
具体实施方式
下面结合附图对本发明的优选实施例作详细说明。
图1为本发明基于基于Kalman滤波器的压缩时空融合跟踪方法的流程图,图2为本发明的融合规则算法理论框架,该方法的步骤如下:
(1)对样本图像块计算可见光与红外压缩特征向量;
(2)按图2的融合规则,计算关联特征向量V;
(3)按图2的融合规则,计算空间系数矩阵CS
(4)用Kalman滤波器估计时间系数矩阵CT
(5)求得时空系数矩阵CT-S
(6)按图2的融合规则,计算融合特征向量VF,并将其反馈以训练滤波器;
(7)将融合特征向量VF作为贝叶斯分类器的输入,并用最大分类器反馈得到跟踪目标位置,如图1所示;
(8)在目标周围采取正样本,在离目标一定距离范围内采取负样本。并更新分类器。
对于提取压缩向量,首先提取样本图像块:
Figure BDA00003519387200061
为样本图像块的多尺度高维图像空间;然后,引入一个随机矩阵
Figure BDA00003519387200062
Figure BDA00003519387200063
压缩为低维空间
Figure BDA00003519387200064
v=Rx
其中,m<<n,随机矩阵R定义为
r ij = s × 1 with probability 1 2 s 0 with probability 1 - 1 s - 1 with probability 1 2 s .
当s=2 or 3时,R满足Johnson-Lindenstrauss引理,即保证从x映射到v的过程具有最小误差,低维特征向量
Figure BDA00003519387200066
中的每个元素vi都是不同尺度空间分布矩形特征的线性组合,用Haar-like特征来表述不同尺度上的空间分布矩形特征;得到可见光与红外的低维特征向量 v c = [ v c ( 1 ) , v c ( 2 ) , . . . , v c ( m ) ] T , c ∈ { vis , IR } .
已知特征向量其中vis和IR分别表示可见光和红外传感器。每个
Figure BDA00003519387200069
表示尺寸为1×k的第c个传感器的第i个特征值向量,其中m是Haar-like特征数,k是样本框尺寸;将vc转化为一个新的关联特征向量: V = [ v vis T , v IR T ] T .
空间系数矩阵创建过程为:通过当前帧特征向量
Figure BDA000035193872000611
和前一帧特征向量
Figure BDA000035193872000612
建立传感器模型,其中t表示帧数,当为当前帧时,可以省略;将
Figure BDA000035193872000613
作为目标模板;用似然函数定义传感器似然向量
Figure BDA000035193872000614
Figure BDA000035193872000615
其中控制参数λc用来控制每个传感器特征的重要性,
Figure BDA000035193872000616
是一个用欧氏距离定义的距离向量 ρ c ( i ) = 1 N ( i ) Σ j = 1 k | v c ( i ) ( j ) ( t ) - v c ( i ) ( j ) ( t - 1 ) | 2 , i = 1 , . . . , m , 其中N是在时间范围内的归一化向量,定义为 N ( i ) = Σ j = 1 k ( [ v c ( i ) ( j ) ( t ) ] 2 + [ v c ( i ) ( j ) ( t - 1 ) ] 2 ) ; 预测权值向量的第i个元素可以在传感器范围内归一化定义为:
w c ( i ) = p c ( i ) / Σ c p c ( i ) , c ∈ { vis , IR } , i = 1 , . . . , m
定义一个2m×2m的对角化空间系数矩阵
C S = diag { w vis ( 1 ) , · · · , w vis ( m ) , w IR ( 1 ) , · · · , w IR ( m ) }
各传感器的预测权值可以通过矩阵CS中的置信度较好的描述,得到V和CS后,对各传感器的特征极其对应的权值在空间上做了描述。
时间系数矩阵创建过程为利用Kalman滤波器中的布朗随机游走模型估计所述时间系数矩阵CT,Kalman滤波器中的布朗随机游走模型问题可以描述为:
预测阶段,状态和误差协方差预测为:
x(t)=F·x(t-1)
P(t|t-1)=F·P(t|t-1)·F′+Q
量测阶段,用下式更新Kalman滤波器:
x(t|t)=x(t|t-1)+Kg(t)·[z(t)-H·x(t|t-1)]
Kg(t)=P(t|t-1)·H′·[H·P(t|t-1)·H′+R]-1
P(t|t)=[I-Kg(t)·H]·P(t|t-1)
其中
Figure BDA00003519387200073
Figure BDA00003519387200074
分别为状态和量测向量。状态转移矩阵F是一个单位矩阵,H是量测矩阵。随机游走模型在分析时间序列上为一些实际问题提供了基础。该具有结构化特征的状态空间模型中,x(t)表示系统随时间的发展,同时z(t)与上述状态空间模型的状态相对应;
定义一个2m2×1的状态向量
Figure BDA00003519387200075
其中
Figure BDA00003519387200076
Figure BDA00003519387200077
的第i个行向量。同时,定义一个mk×1的观测向量 z = [ V ‾ F ( 1 ) , · · · , V ‾ F ( m ) ] T , 其中 V ‾ F ( i ) = [ V F ( i ) ( 1 ) · · · , V F ( i ) ( k ) ] , i = 1 , · · · , m 是VF的第i个行向量,因此,Kalman滤波器的状态和观测方程定义为:
x ( t ) = F · x ( t - 1 ) + w z ( t ) = H · x ( t ) + v
其中观测矩阵H定义为
Figure BDA000035193872000711
系统噪声w~N(0,Q)和量测噪声v~N(0,R)是互相独立的零均值高斯噪声向量,协方差分别为Q=0.1和R=1.0。本发明中,CT的初值设为其中,Im是m×m的单位矩阵;
利用Kalman滤波器在不同时刻有效的估计时间系数矩阵CT,而结合关联特征向量V和空间系数矩阵CS,可以求得融合特征向量VF。将VF作为基础,计算Kalman滤波器的观测值,从而作为反馈更新滤波器,使得整个融合任务是一个闭环系统。基于Kalman滤波器模型,我们的融合跟踪方法可以获得准确的目标跟踪结果。
时空系数矩阵通过结合时间与空间系数矩阵计算求得。为了更新关联特征向量,定义一个时空系数矩阵:
CT-S=CT·CS
因此,通过结合时间和空间系数矩阵,融合系数可以更好的在时间空间上相应的描述。
融合特征向量由关联特征向量更新得到,并将其反馈用以其训练滤波器。因此,整个融合任务是一个闭环系统,并且视频的每一帧仅用一个时空系数矩阵就可以完成。
得到各传感器的融合系数表示后,我们通过
VF=CT-S·V
来计算融合特征向量VF。我们将VF反馈回Kalman滤波器,用作滤波器的观测向量,并更新滤波器的参数。同时,将VF输入分类器进行跟踪。
假设融合特征向量VF中的每个元素都是独立分布。我们用贝叶斯分类器H(v)对其进行建模:
H ( v ) = log ( ∏ i = 1 n p ( v i | y = 1 ) p ( y = 1 ) ∏ i = 1 n p ( v i | y = 0 ) p ( y = 0 ) ) = Σ i = 1 n log ( p ( v i | y = 1 ) p ( v i | y = 0 ) ) ,
我们假设初始值p(y=1)=p(y=0),且y∈{0,1}表示正负样本标签。假设分类器H(v)中的条件分布p(vi|y=1)和p(vi|y=0)是贝叶斯分布,其参数为 ( μ i 1 , σ i 1 , μ i 0 , σ i 0 ) , p ( v i | y = 1 ) ~ N ( μ i 1 , σ i 1 ) , p ( v i | y = 0 ) ~ N ( μ i 0 , σ i 0 ) .
在映射空间中,为了更好的描述特征,对H(v)中的标量参数进行增量更新。
μ i 1 ← λμ i 1 + ( 1 - λ ) μ 1
σ i 1 ← λ ( σ i 1 ) 2 + ( 1 - λ ) ( σ 1 ) 2 + λ ( 1 - λ ) ( μ i 1 - μ 1 ) 2 ,
其中训练参数λ>0,且 σ 1 = 1 n Σ k = 0 | y = 1 n - 1 ( v i ( k ) - μ 1 ) 2 , μ 1 = 1 n Σ k = 0 | y = 1 n - 1 v i ( k ) .
然后,跟踪结果位置既是分类器值H(v)的最大值对应的样本框位置。得到跟踪结果后,在目标周围采取正样本,在离目标一定距离范围内采取负样本。并更新分类器,为下一帧跟踪做准备。
图2为本发明一个较佳实施例中的融合规则算法理论框架;其中vvis和vIR分别是可见光与红外传感器的特征向量,wvis和wIR分别是可见光与红外传感器的预测权值向量,V是关联特征向量,CS是空间系数矩阵,CT(t)是t时刻的时间系数矩阵,CT(t-1)是t-1时刻的时间系数矩阵,CT-S是时空系数矩阵,VF是融合特征向量。
图3~8为本发明跟踪试验结果。本发明中的方法与三种跟踪方法进行对比试验:一种实时压缩跟踪算法(简称:CT;[Kaihua Zhang,LeiZhang.Real-TimeCompressive Tracking.ECCV 2012,Part III,LNCS 7574,pp.866-879,2012]),一种基于在线多实例学习的鲁棒目标跟踪方法(简称:MIL;[Babenko,B.,Yang,M.-H.,Belongie,S.:Robust object tracking with online multiple instance learning.PAMI 33,1619-1632(2011)]),以及一种基于模糊区域化动态图像融合的多传感器Mean-shift目标跟踪方法(简称:FRDIF-MMT;[Gang Xiao,Xiao Yun,Jianmin Wu.A Multi-cue Mean-shift Target Tracking Approach Based onFuzzified Region Dynamic Image Fusion.Sci China Ser F InfSci,55(3):577-589(2012)])。将这三种方法与本发明的方法进行对比,得到跟踪像素误差对比,如图3、图5和图7,其中真实位置手工框定。本发明中,在时空系数矩阵CT-S的可见光与红外融合系数中随机抽取一组进行对比,如图4、图6和图8。
如图3所示,是第一组视频的跟踪误差对比曲线。视频1的困难在于背景变化与相似性。其中,人物目标经过的地面颜色和纹理产生变化,且有相似人物在目标周围经过,这都为准确跟踪提出了挑战。其中CT和MIL方法都错跟到了相似物体上,而FRDIF-MMT错跟到其他背景上,只有本发明的方法跟踪准确。为了表示方便,图3中只截取对比度强烈的曲线部分。当地面颜色纹理变化时,因为可见光对应的背景纹理也变化,以至于可见光跟踪不稳定,所以红外融合系数会变大,而当另一个人接近人物目标时,由于红外跟踪无法区分人与人,因此可见光的融合系数相应增大,融合系数对比如图4。
如图5所示,是第二组视频的跟踪误差对比曲线。视频2的困难在于人物目标被电线杆部分遮挡。只有本发明的方法能够成功跟踪到目标,其他方法在人物目标被遮挡后,都将目标丢失,从而跟踪失败。融合系数对比如图6。
如图7所示,是第三组视频的跟踪误差对比曲线。视频3的困难在于人物目标被大片树叶全部遮挡,并且遮挡物、背景与目标颜色纹理接近。只有本发明的方法能够克服表观突变,从而成功跟踪到目标。为了表示方便,图7中只截取对比度强烈的曲线部分。融合系数对比如图8。
可见,本发明的基于Kalman滤波器的压缩时空融合跟踪方法,具有较好的跟踪效果,为多传感器融合跟踪提供了一种非常有效的技术手段。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术无需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此,凡本领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在本发明的权利要求保护范围内。

Claims (6)

1.一种基于Kalman滤波器的压缩时空多传感器融合跟踪方法,其特征在于,包括以下步骤: 
步骤1)输入可见光与红外图像; 
步骤2)对所述可见光和红外图像的前一帧图像的目标取样本图像块,其中,第一帧的目标位置手工框定,利用压缩感知原理,将所述样本图像块高维空间映射为低维空间,在可见光与红外样本中分别计算样本压缩特征向量,得到可见光与红外的低维特征向量; 
步骤3)通过传感器的特征向量得到关联特征向量; 
步骤4)通过所述传感器特征向量与模板的似然函数建立空间系数矩阵; 
步骤5)基于Kalman滤波器对时间系数矩阵进行估计,根据所述Kalman滤波器在不同时刻进行预测来估计得到时间系数矩阵; 
步骤6)结合所述时间与空间系数矩阵计算得到时空系数矩阵; 
步骤7)所述关联特征向量和所述时空系数矩阵相乘得到融合特征向量,并将所述融合特征向量反馈用来训练所述Kalman滤波器,形成一个闭环系统; 
步骤8)通过贝叶斯分类器对所述融合特征向量进行建模,所述分类器值的最大值对应的样本框位置即为跟踪结果位置,得到跟踪结果后,提取正负样本,并更新所述贝叶斯分类器,为下一帧跟踪做准备; 
步骤9)输出所述跟踪位置、所述分类器以及所述Kalman滤波器参数。 
2.根据权利要求1所述一种基于Kalman滤波器的压缩时空多传感器融合跟踪方法,其特征在于,所述步骤2)计算所述样本压缩向量步骤如下: 
步骤2-1)提取样本图像块,得到样本图像块的多尺度高维图像空间
Figure FDA00003519387100011
步骤2-2)通过一个随机矩阵
Figure FDA00003519387100013
压缩为低维空间
Figure FDA00003519387100014
v=Rx 
其中,m<<n,随机矩阵R定义为 
Figure FDA00003519387100015
取s=2或3; 
步骤2-3)得到可见光与红外的低维特征向量
Figure FDA00003519387100016
3.根据权利要求1所述一种基于Kalman滤波器的压缩时空多传感器融合跟踪方法,其特征在于,所述步骤3)中所述关联特征向量由所述已知特征向量 
Figure FDA00003519387100021
其中vis和IR分别表示可见光和红外传感器。每个
Figure FDA00003519387100022
表示尺寸为1×k的第c个传感器的第i个特征值向量,其中m是Haar-like特征数,k是样本框尺寸,通过融合规则转化为一个新的关联特征向量 
Figure 20131029836861000011
4.根据权利要求1所述一种基于Kalman滤波器的压缩时空多传感器融合跟踪方法,其特征在于,所述步骤4)中所述空间系数矩阵创建步骤如下: 
步骤4-1)通过当前帧特征向量和前一帧特征向量建立传感器模型,其中t表示帧数,当为当前帧时,可以省略; 
步骤4-2)将
Figure FDA00003519387100026
作为目标模板; 
步骤4-3)用似然函数定义传感器似然向量
Figure FDA00003519387100027
Figure FDA00003519387100028
其中控制参数λc用来控制每个传感器特征的重要性,是一个用欧氏距离定义的距离向量
Figure FDA000035193871000210
其中N是在时间范围内的归一化向量,定义为
Figure FDA000035193871000211
步骤4-4)预测权值向量的第i个元素可以在传感器范围内归一化定义为: 
步骤4-5)定义一个2m×2m的对角化空间系数矩阵 
Figure FDA000035193871000213
可以通过矩阵CS中的置信度得到各传感器的预测权值,得到V和CS后,即对对各传感器的特征极其对应的权值在空间上做了描述。 
5.根据权利要求1所述一种基于Kalman滤波器的压缩时空多传感器融合跟踪方法,其特征在于,所述步骤5)中所述时间系数矩阵创建步骤如下: 
步骤5-1)利用Kalman滤波器中的布朗随机游走模型估计所述时间系数矩阵CT; 
步骤5-2)结合关联特征向量V和空间系数矩阵CS,求得融合特征向量VF; 
步骤5-3)将VF作为基础,计算Kalman滤波器的观测值,作为反馈更新滤波器,使得整个融合任务是一个闭环系统。 
6.根据权利要求1所述一种基于Kalman滤波器的压缩时空多传感器融合跟 踪方法,其特征在于,所述步骤8)中所述分类器跟踪过程如下: 
步骤8-1)用贝叶斯分类器H(v)对融合特征向量VF其进行建模: 
Figure FDA00003519387100031
其中,假设初始值p(y=1)=p(y=0),且y∈{0,1}表示正负样本标签,假设分类器H(v)中的条件分布p(vi|y=1)和p(vi|y=0)是贝叶斯分布,其参数为 
Figure FDA00003519387100032
Figure FDA00003519387100033
步骤8-2)在映射空间中,对H(v)中的标量参数进行增量更新: 
Figure FDA00003519387100035
Figure FDA00003519387100036
其中训练参数λ>0,且
Figure FDA00003519387100037
Figure FDA00003519387100038
步骤8-3)跟踪结果位置既是分类器值H(v)的最大值对应的样本框位置,得到跟踪结果后,在目标周围采取正样本,在离目标一定距离范围内采取负样本; 
步骤8-4)更新分类器,为下一帧跟踪做准备。 
CN201310298368.6A 2013-07-16 2013-07-16 一种基于Kalman滤波器的压缩时空多传感器融合跟踪方法 Active CN103345735B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310298368.6A CN103345735B (zh) 2013-07-16 2013-07-16 一种基于Kalman滤波器的压缩时空多传感器融合跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310298368.6A CN103345735B (zh) 2013-07-16 2013-07-16 一种基于Kalman滤波器的压缩时空多传感器融合跟踪方法

Publications (2)

Publication Number Publication Date
CN103345735A true CN103345735A (zh) 2013-10-09
CN103345735B CN103345735B (zh) 2015-12-09

Family

ID=49280528

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310298368.6A Active CN103345735B (zh) 2013-07-16 2013-07-16 一种基于Kalman滤波器的压缩时空多传感器融合跟踪方法

Country Status (1)

Country Link
CN (1) CN103345735B (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103839273A (zh) * 2014-03-25 2014-06-04 武汉大学 基于压缩感知特征选择的实时检测跟踪框架与跟踪方法
CN104298650A (zh) * 2014-09-30 2015-01-21 杭州电子科技大学 基于多方法融合的量化卡尔曼滤波方法
CN105094072A (zh) * 2014-05-21 2015-11-25 北方信息控制集团有限公司 一种用于安全监控系统的生产过程动态建模方法
CN105427337A (zh) * 2015-10-30 2016-03-23 西北工业大学 基于压缩感知的延时视频序列运动细胞跟踪方法
CN106101640A (zh) * 2016-07-18 2016-11-09 北京邮电大学 自适应视频传感器融合方法及装置
CN106683115A (zh) * 2016-12-21 2017-05-17 中国矿业大学 一种基于螺旋视觉‑运动模型的视频跟踪方法
CN106999131A (zh) * 2014-11-27 2017-08-01 皇家飞利浦有限公司 用于生成患者的图像的成像设备和方法
CN107644432A (zh) * 2017-08-28 2018-01-30 浙江工业大学 基于Kalman目标预测多特征压缩融合的快速运动目标跟踪方法
CN107909041A (zh) * 2017-11-21 2018-04-13 清华大学 一种基于时空金字塔网络的视频识别方法
CN108288283A (zh) * 2018-01-22 2018-07-17 扬州大学 一种基于相关滤波的视频跟踪方法
CN110163270A (zh) * 2019-05-10 2019-08-23 北京易控智驾科技有限公司 多传感器数据融合方法及系统
WO2019183759A1 (zh) * 2018-03-26 2019-10-03 深圳市大疆创新科技有限公司 图像融合方法、拍摄设备和可移动平台系统
CN112035787A (zh) * 2020-08-31 2020-12-04 成都航空职业技术学院 一种基于ude估计器的噪声估计方法
CN112435183A (zh) * 2020-11-17 2021-03-02 浙江大华技术股份有限公司 一种图像降噪方法和装置以及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101271525A (zh) * 2008-04-10 2008-09-24 复旦大学 一种快速的图像序列特征显著图获取方法
CN102592135A (zh) * 2011-12-16 2012-07-18 温州大学 融合目标空间分布和时序分布特征子空间的视觉跟踪方法
US8352184B2 (en) * 2006-12-21 2013-01-08 The United States Of America As Represented By The Secretary Of The Navy Message formatting system to improve GPS and IMU positional reporting for a vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352184B2 (en) * 2006-12-21 2013-01-08 The United States Of America As Represented By The Secretary Of The Navy Message formatting system to improve GPS and IMU positional reporting for a vehicle
CN101271525A (zh) * 2008-04-10 2008-09-24 复旦大学 一种快速的图像序列特征显著图获取方法
CN102592135A (zh) * 2011-12-16 2012-07-18 温州大学 融合目标空间分布和时序分布特征子空间的视觉跟踪方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
SHIQIANG HU 等: "A robust fusion algorithm for multi-sensor tracking", 《INTELLIGENT TRANSPORTATION SYSTEMS, 2003. PROCEEDINGS. 2003 IEEE》 *
YANG WANG 等: "Data association for PHD filter based on MHT", 《INFORMATION FUSION, 2008 11TH INTERNATIONAL CONFERENCE ON》 *
盛三元 等: "联合卡尔曼滤波在多传感器信息融合中的应用", 《雷达与对抗》 *
陈非 等: "空基多平台多传感器时间空间数据配准与目标跟踪", 《控制与决策》 *

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103839273A (zh) * 2014-03-25 2014-06-04 武汉大学 基于压缩感知特征选择的实时检测跟踪框架与跟踪方法
CN103839273B (zh) * 2014-03-25 2017-02-22 武汉大学 基于压缩感知特征选择的实时检测跟踪框架与跟踪方法
CN105094072A (zh) * 2014-05-21 2015-11-25 北方信息控制集团有限公司 一种用于安全监控系统的生产过程动态建模方法
CN105094072B (zh) * 2014-05-21 2017-08-04 北方信息控制集团有限公司 一种用于安全监控系统的生产过程动态建模方法
CN104298650A (zh) * 2014-09-30 2015-01-21 杭州电子科技大学 基于多方法融合的量化卡尔曼滤波方法
CN104298650B (zh) * 2014-09-30 2017-05-10 杭州电子科技大学 基于多方法融合的量化卡尔曼滤波方法
CN106999131A (zh) * 2014-11-27 2017-08-01 皇家飞利浦有限公司 用于生成患者的图像的成像设备和方法
CN105427337A (zh) * 2015-10-30 2016-03-23 西北工业大学 基于压缩感知的延时视频序列运动细胞跟踪方法
CN106101640A (zh) * 2016-07-18 2016-11-09 北京邮电大学 自适应视频传感器融合方法及装置
CN106683115A (zh) * 2016-12-21 2017-05-17 中国矿业大学 一种基于螺旋视觉‑运动模型的视频跟踪方法
CN107644432A (zh) * 2017-08-28 2018-01-30 浙江工业大学 基于Kalman目标预测多特征压缩融合的快速运动目标跟踪方法
CN107644432B (zh) * 2017-08-28 2020-08-11 浙江工业大学 基于Kalman目标预测多特征压缩融合的快速运动目标跟踪方法
CN107909041A (zh) * 2017-11-21 2018-04-13 清华大学 一种基于时空金字塔网络的视频识别方法
CN108288283A (zh) * 2018-01-22 2018-07-17 扬州大学 一种基于相关滤波的视频跟踪方法
WO2019183759A1 (zh) * 2018-03-26 2019-10-03 深圳市大疆创新科技有限公司 图像融合方法、拍摄设备和可移动平台系统
CN110622496A (zh) * 2018-03-26 2019-12-27 深圳市大疆创新科技有限公司 图像融合方法、拍摄设备和可移动平台系统
US11425316B2 (en) 2018-03-26 2022-08-23 SZ DJI Technology Co., Ltd. Image fusion method, image capturing apparatus, and mobile platform system
CN110163270A (zh) * 2019-05-10 2019-08-23 北京易控智驾科技有限公司 多传感器数据融合方法及系统
CN110163270B (zh) * 2019-05-10 2021-11-09 北京易控智驾科技有限公司 多传感器数据融合方法及系统
CN112035787A (zh) * 2020-08-31 2020-12-04 成都航空职业技术学院 一种基于ude估计器的噪声估计方法
CN112035787B (zh) * 2020-08-31 2023-02-28 成都航空职业技术学院 一种基于ude估计器的噪声估计方法
CN112435183A (zh) * 2020-11-17 2021-03-02 浙江大华技术股份有限公司 一种图像降噪方法和装置以及存储介质

Also Published As

Publication number Publication date
CN103345735B (zh) 2015-12-09

Similar Documents

Publication Publication Date Title
CN103345735B (zh) 一种基于Kalman滤波器的压缩时空多传感器融合跟踪方法
CN109829436B (zh) 基于深度表观特征和自适应聚合网络的多人脸跟踪方法
CN102289672A (zh) 红外步态双信道特征融合识别方法
CN109191497A (zh) 一种基于多种信息融合的实时在线多目标跟踪方法
CN103295221B (zh) 模拟复眼视觉机制和偏振成像的水面目标运动检测方法
CN103268500A (zh) 一种对行走状态变化具有鲁棒性的步态识别方法
Zhang Detection and tracking of human motion targets in video images based on camshift algorithms
CN109242883A (zh) 基于深度sr-kcf滤波的光学遥感视频目标跟踪方法
CN105930808A (zh) 一种基于vector boosting模板更新的运动目标跟踪方法
CN105809119A (zh) 一种基于稀疏低秩结构多任务学习的行为识别方法
Song et al. AHD: Thermal image-based adaptive hand detection for enhanced tracking system
Ma et al. Difference-guided representation learning network for multivariate time-series classification
CN108364303A (zh) 一种带隐私保护的摄像机智能跟踪方法
Xia et al. Gesture recognition algorithm of human motion target based on deep neural network
Ding et al. Machine learning model for feature recognition of sports competition based on improved TLD algorithm
CN108470189A (zh) 基于对偶相似度模型的多域辐射源信息融合方法
Zhao et al. Artificial intelligence system based on the layout effect of both sides in volleyball matches
Tarimo et al. Real-time deep learning-based object detection framework
De Maio et al. Deep bayesian icp covariance estimation
Foytik et al. Tracking and recognizing multiple faces using Kalman filter and ModularPCA
CN104422527B (zh) 一种基于红外热释电信息的人体热源判断方法和装置
CN106446837B (zh) 一种基于运动历史图像的挥手检测方法
Deng et al. View-invariant gait recognition based on deterministic learning and knowledge fusion
Li et al. Online parallel framework for real-time visual tracking
CN104732521B (zh) 一种基于权重组相似活动轮廓模型的相似目标分割方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant