CN101252677A - 一种基于多光谱图像传感器的目标跟踪方法 - Google Patents

一种基于多光谱图像传感器的目标跟踪方法 Download PDF

Info

Publication number
CN101252677A
CN101252677A CNA2007100189155A CN200710018915A CN101252677A CN 101252677 A CN101252677 A CN 101252677A CN A2007100189155 A CNA2007100189155 A CN A2007100189155A CN 200710018915 A CN200710018915 A CN 200710018915A CN 101252677 A CN101252677 A CN 101252677A
Authority
CN
China
Prior art keywords
fusion
sigma
target
energy
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2007100189155A
Other languages
English (en)
Other versions
CN101252677B (zh
Inventor
薛建儒
平林江
郑南宁
钟小品
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Jiaotong University
Original Assignee
Xian Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Jiaotong University filed Critical Xian Jiaotong University
Priority to CN200710018915A priority Critical patent/CN101252677B/zh
Publication of CN101252677A publication Critical patent/CN101252677A/zh
Application granted granted Critical
Publication of CN101252677B publication Critical patent/CN101252677B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种多光谱图像传感器融合的目标跟踪方法,该方法采用具有一定通用性的四层数据融合计算框架。该四级数据融合计算框架由下至上分别是多特征融合级、多模式融合级、多模型融合级和多传感器融合级。多特征融合运用概率方法实现多个特征线索的综合,保证不同环境下有足够的特征信息来表示目标;多模式融合运用分阶段模式切换算法,以一定的加权系数联合两种相邻的跟踪模式,使模式之间平滑过渡,保证目标的连续跟踪;多模型融合运用交互多模型算法,解决了目标不同运动模型之间的平稳切换;多传感器融合运用分布式融合跟踪算法,取各传感器之优点,弥补相互之间的不足,使跟踪更为鲁棒和精确。

Description

一种基于多光谱图像传感器的目标跟踪方法
技术领域
本发明属于信息技术领域,可应用于智能视频监控、体育运动视频分析、国防等领域,涉及一种基于多光谱图像传感器的目标跟踪方法。
背景技术
近年来随着计算机视觉技术的发展,基于视频的自动目标跟踪技术在视频监控、体育视频分析、国防等方面得到了较为广泛的应用。然而,过去使用单传感器的跟踪系统受到传感器自身性能局限性的约束,往往只能应用于某些特定场合下已知目标的跟踪。由于光照条件的变化、复杂背景、遮挡等不确定因素的影响,长期稳定地跟踪复杂场景中感兴趣目标仍然是一个很具有挑战性的课题。因此,研究者开始探索生物体与环境进行交互的基本机理,而借鉴生物感知外界环境的机理,利用多光谱图像传感器信息融合技术来实现视频目标跟踪也已成为一个热门研究领域。
发明内容
本发明的目的是提供一种基于多光谱图像传感器的目标跟踪方法,该方法基于多光谱图像传感器四层数据融合框架的目标跟踪系统,利用多个不同波段的光谱图像传感器所提供的互补甚至重叠的信息提高视频目标跟踪精度、拓宽系统应用范围,使其能够在复杂背景下稳定地跟踪运动目标,而且具有较高的鲁棒性。
为了实现上述任务,本发明采用如下的解决方案:
一种多光谱图像传感器的目标跟踪方法,其特征在于,该方法采用具有一定通用性的四层数据融合的计算框架,由下往上依次是多特征融合级、多模式融合级、多模型融合级和多传感器融合级,各层之间协同工作,构成一个完整的、通用的目标跟踪系统;目标跟踪系统的图像预处理根据不同目标检测的需要,提取特征的方法为:基于灰度的特征提取、基于区域的特征提取和基于形状的特征提取;
多特征融合级采用朴素贝叶斯方法,用于对不同的特征以概率进行融合,来描述同一个目标,使其能够明显地区别于背景或噪声;
多模式融合级采用分阶段切换算法,用于实现三种跟踪模式在四个不同阶段的平稳切换;
多模型融合级采用Kalman滤波基础上的交互多模型IMM算法,用于解决目标匀速运动、匀加速运动和转角运动等模型的融合;
多传感器融合级采用分布式融合跟踪算法,用于对长波红外、短波红外、可见光传感器进行融合跟踪。
本发明针对目标跟踪中存在的问题,给出四层数据融合的框架。为了确保层与层之间的连贯性,每一层的输入输出均用状态分布来表示。
运动目标由于距离图像传感器的成像平面的距离及角度均会发生变化,从而导致成像图像中目标的大小发生变化。如果波门总是不变,跟踪的精度必然有限,甚至断锁,所以采用波门自适应调节算法来解决这个问题。
本发明的方法实现了对感兴趣目标的自动跟踪,实际应用证明多传感器四层数据融合框架的目标跟踪效果优于单传感器。
附图说明
图1是本发明的基于多光谱图像传感器的目标跟踪系统的四级数据融合框架结构图;
图2是贪婪蛇算法流程图;
图3是主动轮廓算法效果图示,其中图a是蛇点初始化,图b是用贪婪蛇算法迭代3次后的结果;
图4是单特征目标检测与多特征融合的目标检测结果对比图;
图5是根据波门大小来确定目标所处的跟踪阶段并选择相应的跟踪模式的过程;
图6是多模式融合算法流程图;
图7是多模式融合方法跟踪红外目标的结果;
图8是多模型融合算法流程图;
图9是多模型融合跟踪结果,其中图a是跟踪的示意图,图b是使用两个模型时的模型概率变化图;
图10是采用长波红外,短波红外和可见光等三类传感器示意图;
图11是多传感器融合算法流程图;
图12是系统跟踪的软件运行界面。
以下结合附图和实施例对本发明作进一步的详细说明。
具体实施方式
本发明的基于多光谱图像传感器的目标跟踪方法,按以下方式进行:
1.构建四级数据融合框架
本发明根据不同传感器各自的特点,首先构建视觉跟踪的四级数据融合框架(四级数据融合框架的结构如图1所示),包括:由下往上依次是多特征融合级、多模式融合级、多模型融合级、多传感器融合级。多特征融合级用概率方法实现基于多视觉线索的融合;多模式融合级运用分阶段模式切换算法,以一定的加权系数联合两种相邻的跟踪模式使模式之间平滑过渡;多模型融合级运用交互多模型(IMM)算法实现;多传感器融合级运用分布式融合算法完成。前一级的融合结果是下一级融合的基础。不同图像传感器得到的图像只是提取的特征有所不同,前三级的数据融合方法是一致的。最后将每个传感器的跟踪结果进行融合得到整个系统的跟踪结果。
2.特征提取
特征提取是视频目标跟踪的首要阶段,视觉系统的性能严重依赖于所选择的特征空间对目标的描述能力和分辩能力以及用于提取特征的算法有效性和可靠性。然而红外图像与可见光图像的成像原理不尽相同,所以需要的特征也有所不同。根据不同目标检测的需要,本发明中提取特征的方法有:基于灰度的特征提取、基于区域的特征提取和基于形状的特征提取。
2.1基于灰度的特征提取
考虑本系统中远距离的微弱目标,颜色、形状等特征并不显著,而灰度特征在红外传感器中直接反映为目标成像,因此在这种情况下重点考察基于图像灰度值的亮度(目标区域中的最大灰度值)和对比度(目标最亮像素点灰度值与目标最暗像素灰度值之比值)作为主要特征来检测目标。
亮度特征的提取根据上一帧得到的目标点位置及灰度均值与方差,在其周围指定的范围内,通过逐个像素计算,得到对应点的灰度高斯分布似然函数值p1(i,j)。
对比度特征的提取根据上一帧得到的目标点位置及对比度均值与方差,在其周围指定的范围内,通过逐个像素计算,得到对应点的对比度高斯分布似然函数值p2(i,j)。
这里,对特征量均构造高斯分布似然函数:
p ( y 1 | x ) ∝ N ( m 1 , σ 1 2 ) , p ( y 2 | x ) ∝ N ( m 2 , σ 2 2 )
其中m1,σ1 2分别为目标亮度均值与方差,m2,σ2 2分别为对比度的均值与方差。
2.2基于分割的特征提取
当目标成像为一个小亮斑,所形成的区域已经有相当数量的像素组成但是又不能用形状来描述的时候,采用基于分割的特征提取显得尤为有效。它首先对目标区域和背景进行有效的分割,并对其二值化:
g ( x , y ) = 1 g ( x , y ) > Th 0 other - - - ( 1 )
其中g(x,y)为坐标(x,y)上的灰度值,Th为灰度阈值。
这时用质心来表示目标区域的位置:
x c = Σ ( x , y ) ∈ S x · g ( x , y ) Σ ( x , y ) ∈ S g ( x , y ) , y c = Σ ( x , y ) ∈ S y · g ( x , y ) Σ ( x , y ) ∈ S g ( x , y ) - - - ( 2 )
其中S为目标所在的区域;g(x,y)为目标成像在(x,y)点的灰度,(xc,yc)是经过图像分割以后确定特征点所在区域并计算得到的质心。
2.3基于形状的特征提取
当目标成像比较清晰时,形状是常用的重要视觉特征,因为它基本上不受光照变化、目标旋转变换和平移变换等影响。对于面积较大、轮廓较清晰的面目标,使用一条在内部约束力和外部作用力共同作用下产生移动的可变曲线(主动轮廓)表示基于轮廓的形状特征。
首先构造一个合适的能量函数E{v}来定义这条曲线,其中v{x(s),y(s)}表示轮廓,表示从单位参量域s∈[0,1]到图像表面的映射。通常E{v}由两部分组成,即内部变形能量Eint和外部势能Eext
E=Eint+Eext    (3)
内部变形能量Eint定义了一条具有伸缩及弯曲的曲线v(s),即由变形而获得的能量: E int = ∫ 0 1 ( α ( s ) | v s | 2 + β ( s ) | v ss | 2 ) ds , 其中v的下标表示对s的微分,式中两项分别控制主动轮廓的弹性和刚性。
外部势能Eext解释了主动轮廓如何被吸引到显著的图像特征, E ext = γ ∫ 0 1 p ( v ( s ) ) ds , 其中p(v)式定义为图像平面上的标量函数。
本模块对于该主动轮廓的理论模型使用的Williams贪婪算法,该算法是一种相对精度高而计算复杂度较低的算法。
贪婪算法把内部能量分为连续性能量、弯曲性能量,而外部能量分为图像能量和约束能量。则贪婪算法把主动轮廓模型重写为:
E ( v i , 0 ) = min 0 ≤ j ≤ 8 [ α E cont ( v i , j ) + β E curv ( v i , j ) + γ E img ( v i , j ) + δ E cons ( v i , j ) ] - - - ( 4 )
其中(i=0,1,...N-1)表示蛇点标号,vi,j表示蛇点及其8邻域点。α,β,γ,δ分别表示能量项的归一化权值,用以调节各能量项在总能量中的比重。
主动轮廓贪婪蛇算法流程如图2所示,某红外图像的基于形状的主动轮廓提取结果如图3所示。
3.多特征融合
单个特征对环境变化的适应能力较差,而多特征的融合能够弥补特征之间的不足,是增强目标对环境变化适应能力的有效办法,因此联合多个特征共同工作可以使目标跟踪在动态环境中具有较好的鲁棒性。特征融合算法通过使用和整合各种不同的视觉线索,建立具有唯一性的目标表示模型成为目标跟踪的必要手段。
3.1特征融合算法
特征级的目标检测效果可以从两种主要方式得到提高:强化每个独立的视觉线索,或者改进不同特征信息的整合方法。与此相对应,有两类主要方法用于融合多视觉线索:(1)民主整合,即所有的视觉线索同时作用,地位平等。也就是说,每个视觉线索独立决策,然后使用加权和得到最终决策。(2)用概率方法组合不同视觉线索。这种方法要求细心设计每个视觉线索的模型,以使整合模型按所希望的方式工作。这也是该方法的优势所在,因为它要求明确设计模型,指定要使用的参数和假设。适应性在辨别不同目标时非常重要,而且也使跟踪对由于光照、目标姿态的变化引起的目标形态变化更为鲁棒。
鉴于特征融合阶段并不能耗费过多的处理资源,本系统采用概率方法实现基于多视觉线索融合的跟踪算法,并用简单的方法融合:
先假设特征间独立,然后应用朴素贝叶斯规则求得联合分布函数,即
p ( y 1 , . . . , y n | x ) = Π i = 1 n p ( y i | x ) - - - ( 5 )
其中p(y1,...,yn|x)为特征y1,..,yn的联合似然分布,而p(yi|x)为第i个特征的似然分布。
在融合前,必须取得各特征的似然分布函数。根据上面特征提取得到的p1(i,j)和p2(i,j),通过比较找出使得 p = p 1 m ( i , j ) * p 2 n ( i , j ) (一般取m=n=1)最大的点作为输出。
3.2特征融合结果
根据上述第一级多特征的融合方法,对于小目标可以得到更为鲁棒的跟踪,图4分别显示了单特征和多特征融合情况下目标的检测结果。
图(a)仅仅使用亮度作为特征,而图(b)使用亮度和对比度两个特征按(5)式融合得到的结果。从图中可以清楚地反映多特征融合具有一定的鲁棒性:在第15帧时,单特征检测结果已经不是原来的目标,而多特征融合结果始终是原来的目标。
4.多模式融合
动态场景中的运动目标在不同阶段有不同形态,峰值模式往往难以表示大目标,而主动轮廓模式难以表示小目标,所以需要根据不同阶段的目标选择不同的模式,即数据融合的第二级:多模式融合。本系统根据目标的成像尺寸把运动目标由远及近的过程分成四个阶段。根据每个阶段的不同成像特点,使用不同的跟踪模式以达到鲁棒跟踪的目的。
4.1各种跟踪模式
本系统中使用的跟踪模式包括峰值模式、形心模式、主动轮廓模式。这三种特征的提取前面已经讲过,所以相应的目标检测位置也可以得到。
当目标成像为一个光学系统衍射所形成的亮斑(点目标阶段)时,目标不存在形状和轮廓信息,但它的亮度和对比度分布可以用二维高斯分布来描述,所以使用峰值跟踪模式;当目标成像有一定尺寸的区域却不显著(准目标阶段)时,存在轮廓信息却并不明显,使用峰值和形心两种跟踪模式同时工作并融合;当目标成像能清楚反映出目标的形状轮廓(显著目标阶段)时,目标特征明晰,采用形心和主动轮廓两种跟踪模式的融合策略;当目成像尺寸可与视场尺寸相比拟(大目标阶段)时,形心跟踪在精度上无能为力,采用主动轮廓跟踪模式。
实现时依靠自适应波门技术,根据波门尺寸s来判断目标所处的阶段。各阶段的跟踪模式及判断依据如图5所示。
4.2多模式的融合算法
多模式的融合跟踪以Kalman滤波器为框架,以各种模式或者模式的组合作为测量,具体的融合流程如图6所示。
这里主要是模式的选取,各个跟踪阶段使用不同的跟踪模式,但是模式间直接切换将造成跟踪的不协调,容易导致跳动而断锁。本发明使用简单平滑的跟踪模式过渡,使用线性融合方式,即以一定的加权系数联合两种相邻的跟踪模式:
Xc(t)=C(s)X1(t)+[1-C(s)]X2(t)    (6)
其中,Xc(t)为综合输出,X1(t)是第一个跟踪模式,X2(t)是第二个跟踪模式,而C(s)是关于波门尺寸s的加权系数函数,C(s)定义如下:
C ( s ) = curSize - thrDown thrUp - thrDown - - - ( 7 )
其中curSize为波门当前尺寸s,thrDown和thrUp分别为波门尺寸的下阈值和上阈值。
4.3多模式融合结果
多模式融合的部分结果如图7所示。图像中的绿色为主动轮廓跟踪模式的结果,蓝色为形心跟踪模式的结果,红色为融合结果。图中可以清楚看到,多模式融合的结果比单模式跟踪具有更强的鲁棒性。
5多模型融合
对于任何的滤波器,只有当所使用的系统模型与目标的运动模式比较接近时,才能得到较好的跟踪效果。模式级虽然解决了目标不同模式下的跟踪问题,但并不足以描述目标的复杂运动,这时需要用不同运动模型来描述。
5.1模型选择
对于复杂情况的运动目标,在二维图像坐标系中的可能运动有:静止,匀速运动,加速运动,转角运动等。选择适当数量的而且能全面描述目标运动的模型是多模型融合的关键。
如何设计好运动模型的关键是:选择合适的机动水平(加速度),在最大加速度和最小加速度间折衷选取;选择合适的噪声方差,尽量照顾各种运动,且各方差间尽量间隔开(相差比较大)。
本系统中使用了匀速运动、匀加速运动和转角运动的模型。
5.2多模型融合算法
有效融合目标的多种模型能得到更精确的解,而交互多模型(IMM)是目前混合系统中性能比最好且非常简单的算法,它具有自调整、变带宽的特性,非常适合机动目标跟踪,因此本发明的多模型融合采用IMM算法。以三种模型的融合为例,IMM的工作基本原理如图8所示,可见,结合卡尔曼滤波后整个IMM算法包括5个步骤,具体如下:
1)使用前一时刻的模式概率计算当前混合概率:
μ t - 1 | t - 1 ( i , j ) = π ( i , j ) · μ t - 1 ( i ) Σ i = 1 N π ( i , j ) · μ t - 1 ( i ) (其中i,j=1,...,N)
2)滤波器重新初始化:
x ^ t - 1 | t - 1 ( j ) , 0 = Σ i = 1 N x ^ t - 1 | t - 1 ( i ) μ t - 1 | t - 1
P t - 1 | t - 1 ( j ) , 0 = Σ i = 1 N μ t - 1 | t - 1 ( i , j ) { P t - 1 | t - 1 ( i ) + [ x ^ t - 1 | t - 1 ( i ) - x ^ t - 1 | t - 1 ( j ) , 0 ] · [ x ^ t - 1 | t - 1 ( i ) - x ^ t - 1 | t - 1 ( j ) , 0 ] T }
3)模型条件滤波计算: Λ t ( j ) = N ( y t - h ( x ^ t | t - 1 ( j ) , 0 ) ; 0 , S t ( j ) )
4)模型更新概率计算: μ t ( j ) = Λ t ( j ) Σ i = 1 N π ( i , j ) · μ t - 1 ( i ) Σ j = 1 N Λ t ( j ) Σ i = 1 N π ( i , j ) · μ t - 1 ( i )
5)状态估计和协方差组合:
x ^ t | t = Σ i = 1 N x ^ t | t ( i ) μ t ( i )
P t | t = Σ i = 1 N μ t ( i ) { P t | t ( i ) + [ x ^ t | t ( i ) - x ^ t | t ] · [ x ^ t | t ( i ) - x ^ t | t ] T }
5.3多模型融合结果
多模型融合部分的实验跟踪结果和模型概率的变化分别如图9(a)和(b)所示。其中使用两个运动模型:匀速运动模型和匀加速运动模型。容易看出,无论是在目标变速运动还是在转弯运动中,系统都能稳定地跟踪目标。而没有进行模型融合的时候,在运动转变时会引起十字架的跳动,甚至导致跟踪丢失。
6多传感器融合
本系统采用长波红外,短波红外和可见光等三类传感器(如图10所示),由于每个传感器在每个时刻并非同时具有最佳的探测和跟踪效果,如果等同看待不同传感器的检测结果,则总的结果并不能达到最佳,所以需要在不同时刻,根据不同传感器多模型融合估计的不同跟踪效果,进行综合考虑。图中,不同的传感器获取图像序列,传感器的信息处理过程由波门自适应模块、模式选择器、多特征融合级(特征提取与特征融合模块、图像分割及形心模块、主动轮廓模块组成)、多模式融合模块、多模型融合模块以及卡尔曼滤波模块负责完成。
6.1分布式融合算法
从计算复杂度和实现的难度综合考虑,本系统中的传感器融合方法采用分布式融合,每个传感器都拥有独立的跟踪器,该跟踪器就是前面的三个融合级,而传感器融合体现在各跟踪器估计状态的融合。分布式多传感器融合的基本思路是将单传感器多模型的融合估计,按照一定概率加权组合,计算方便而且数据量小。其原理如图11所示,具体的分布式融合跟踪算法如下:
1)取时刻k=1的图像数据;初始化相应参数;
2)通过IMM得到每个滤波器输出
Figure A20071001891500161
Pi -(k)及Pi(k);
3)全局预测: X - ( k ) = A X ^ ( k - 1 ) ; P-(k)=AP(k-1)AT+Q(k-1);
4)融合跟踪结果:
P ( k ) = P - ( k ) - Σ i = 1 N [ P i ( k ) - P i - ( k ) ] , P ( k ) · Σ i = 1 N [ P i - 1 ( k ) X ^ i ( k ) - P i - 1 ( k ) X i - ( k ) ] ;
5)反馈: X ^ i ( k ) = X ^ ( k ) ; Pi(k)=P(k)
6)k=k+1,转到步骤2)。
7.多传感器融合跟踪系统
最后,整个系统的跟踪界面及跟踪效果如图12所示,图中从左到右,从上到下分别表示长波红外传感器、短波红外传感器和可见光传感器以及融合结果,从跟踪效果和融合结果来看,多传感器融合跟踪比单传感器跟踪具有更高的鲁棒性。许多情况下,当目标被偶尔遮挡或者特征信息提取信息不充分的情况下,用单传感器就会导致跟踪丢失,而多传感器融合跟踪不会出现这种情况。

Claims (6)

1. 一种多光谱图像传感器的目标跟踪方法,其特征在于,该方法采用具有一定通用性的四层数据融合的计算框架,由下往上依次是多特征融合级、多模式融合级、多模型融合级和多传感器融合级,各层之间协同工作,构成一个完整的、通用的目标跟踪系统;目标跟踪系统的图像预处理根据不同目标检测的需要,提取特征的方法为:基于灰度的特征提取、基于区域的特征提取和基于形状的特征提取;
多特征融合级采用朴素贝叶斯方法,用于对不同的特征以概率进行融合,来描述同一个目标,使其能够明显地区别于背景或噪声;
多模式融合级采用分阶段切换算法,用于实现三种跟踪模式在四个不同阶段的平稳切换;
多模型融合级采用Kalman滤波基础上的交互多模型IMM算法,用于解决目标匀速运动、匀加速运动和转角运动等模型的融合;
多传感器融合级采用分布式融合跟踪算法,用于对长波红外、短波红外、可见光传感器进行融合跟踪。
2. 如权利要求1所述的方法,其特征在于,所述的基于灰度的特征提取包括亮度特征的提取和对比度特征的提取,即:
亮度特征的提取根据上一帧得到的目标点位置及灰度均值与方差,在其周围指定的范围内,通过逐个像素计算,得到对应点的灰度高斯分布似然函数值p1(i,j);
对比度特征的提取根据上一帧得到的目标点位置及对比度均值与方差,在其周围指定的范围内,通过逐个像素计算,得到对应点的对比度高斯分布似然函数值p2(i,j);
这里,对特征量均构造高斯分布似然函数:
p ( y 1 | x ) ∝ N ( m 1 , σ 1 2 ) , p ( y 2 | x ) ∝ N ( m 2 , σ 2 2 )
其中m1,σ1 2分别为目标亮度均值与方差,m2σ2 2分别为对比度的均值与方差。
3. 如权利要求1所述的方法,其特征在于,所述的基于区域的特征提取采用基于分割的特征提取:
首先对目标区域和背景进行有效的分割,并对其二值化:
g ( x , y ) = 1 g ( x , y ) > Th 0 other
其中g(x,y)为坐标(x,y)上的灰度值,Th为灰度阈值;
这时用质心来表示目标区域的位置:
x c = Σ ( x , y ) ∈ S x · g ( x , y ) Σ ( x , y ) ∈ S g ( x , y ) , y c = Σ ( x , y ) ∈ S y · g ( x , y ) Σ ( x , y ) ∈ S g ( x , y )
其中,S为目标所在的区域;g(x,y)为目标成像在(x,y)点的灰度,(xc,yc)是经过图像分割以后确定特征点所在区域并计算得到的质心。
4. 如权利要求1所述的方法,其特征在于,所述的基于形状的特征提取是:
首先构造一个合适的能量函数E{v}来定义这条曲线,其中v{x(s),y(s)}表示轮廓,表示从单位参量域s∈[0,1]到图像表面的映射。通常E{v}由两部分组成,即内部变形能量Eint和外部势能Eext
E=Eint+Eext
内部变形能量Eint定义了一条具有伸缩及弯曲的曲线v(s),即由变形而获得的能量: E int = ∫ 0 1 ( α ( s ) | v s | 2 + β ( s ) | v ss | 2 ) ds , 其中v的下标表示对s的微分,式中两项分别控制主动轮廓的弹性和刚性;
外部势能Eext解释了主动轮廓如何被吸引到显著的图像特征, E ext = γ ∫ 0 1 p ( v ( s ) ) ds , 其中p(v)式定义为图像平面上的标量函数;
对于该主动轮廓的理论模型使用Williams贪婪算法,把内部能量分为连续性能量、弯曲性能量,而外部能量分为图像能量和约束能量;
贪婪算法把主动轮廓模型重写为:
E ( v i , 0 ) = min 0 ≤ j ≤ 8 [ α E cont ( v i , j ) + β E curv ( v i , j ) + γ E img ( v i , j ) + δ E cons ( v i , j ) ]
其中(i=0,1,...N-1)表示蛇点标号,vi,j表示蛇点及其8邻域点,α,β,γ,δ分别表示能量项的归一化权值,用以调节各能量项在总能量中的比重。
5. 如权利要求1所述的方法,其特征在于,所述的交互多模型IMM算法包括如下步骤:
1)使用前一时刻的模式概率计算当前混合概率:
μ t - 1 | t - 1 ( i , j ) = π ( i , j ) · μ t - 1 ( i ) Σ i = 1 N π ( i , j ) · μ t - 1 ( i ) (其中i,j=1,...,N)
2)滤波器重新初始化:
x ^ t - 1 | t - 1 ( j ) , 0 = Σ i = 1 N x ^ t - 1 | t - 1 ( i ) μ t - 1 | t - 1
P t - 1 | t - 1 ( j ) , 0 = Σ i = 1 N μ t - 1 | t - 1 ( i , j ) { P t - 1 | t - 1 ( i ) + [ x ^ t - 1 | t - 1 ( i ) - x ^ t - 1 | t - 1 ( j ) , 0 ] · [ x ^ t - 1 | t - 1 ( i ) - x ^ t - 1 | t - 1 ( j ) , 0 ] T }
3)模型条件滤波计算: Λ t ( j ) = N ( y t - h ( x ^ t | t - 1 ( j ) , 0 ) ; 0 , S t ( j ) )
4)模型更新概率计算: μ t ( j ) = Λ t ( j ) Σ i = 1 N π ( i , j ) · μ t - 1 ( i ) Σ j = 1 N Λ t ( j ) Σ i = 1 N π ( i , j ) · μ t - 1 ( i )
5)状态估计和协方差组合:
x ^ t | t = Σ i = 1 N x ^ t | t ( i ) μ t ( i )
P t | t = Σ i = 1 N μ t ( i ) { P t | t ( i ) + [ x ^ t | t ( i ) - x ^ t | t ] · [ x ^ t | t ( i ) - x ^ t | t ] T } .
6. 如权利要求1所述的方法,其特征在于,所述的布式融合跟踪算法如下:
1)取时刻k=1的图像数据;初始化相应参数;
2)通过IMM得到每个滤波器输出Xi -(k)及
Figure A2007100189150004C9
Pi -(k)及Pi(k);
3)全局预测: X - ( k ) = A X ^ ( k - 1 ) ; P-(k)=AP(k-1)AT+Q(k-1);
4)融合跟踪结果:
P ( k ) = P - ( k ) - Σ i = 1 N [ P i ( k ) - P i - ( k ) ] , P ( k ) · Σ i = 1 N [ P i - 1 ( k ) X ^ i ( k ) - P i - 1 ( k ) X t - ( k ) ] ;
5)反馈: X ^ i ( k ) = X ^ ( k ) ; Pi(k)=P(k);
6)k=k+1,转到步骤2)。
CN200710018915A 2007-10-19 2007-10-19 一种基于多光谱图像传感器的目标跟踪方法 Expired - Fee Related CN101252677B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN200710018915A CN101252677B (zh) 2007-10-19 2007-10-19 一种基于多光谱图像传感器的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN200710018915A CN101252677B (zh) 2007-10-19 2007-10-19 一种基于多光谱图像传感器的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN101252677A true CN101252677A (zh) 2008-08-27
CN101252677B CN101252677B (zh) 2010-05-19

Family

ID=39955836

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200710018915A Expired - Fee Related CN101252677B (zh) 2007-10-19 2007-10-19 一种基于多光谱图像传感器的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN101252677B (zh)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102129691A (zh) * 2011-03-22 2011-07-20 北京航空航天大学 一种采用Snake轮廓模型的视频对象跟踪分割方法
CN102147468A (zh) * 2011-01-07 2011-08-10 西安电子科技大学 基于贝叶斯理论的多传感器检测跟踪联合处理方法
CN102393913A (zh) * 2011-10-31 2012-03-28 北京航空航天大学 一种基于光谱指纹特征的弱小目标精确跟踪方法
CN102542261A (zh) * 2011-12-31 2012-07-04 华中科技大学 一种二维可计算的目标探测、识别及辨识性能预测方法
CN103391430A (zh) * 2013-07-22 2013-11-13 南通大学 基于dsp的相关跟踪方法及专用装置
CN104038744A (zh) * 2013-07-22 2014-09-10 南通大学 跟踪成功率的基于dsp的相关跟踪方法
CN104539874A (zh) * 2014-06-17 2015-04-22 武汉理工大学 融合热释电传感与摄像机的人体混合监控系统及方法
CN105277228A (zh) * 2014-05-27 2016-01-27 齐鲁工业大学 一种关于蔬菜废弃物发酵的多传感器数据融合方法
CN105306896A (zh) * 2015-10-27 2016-02-03 杭州永控科技有限公司 基于光定位的案件卷宗移交方法及系统
CN105719312A (zh) * 2016-01-19 2016-06-29 深圳大学 基于序贯贝叶斯滤波的多目标跟踪方法及跟踪系统
CN106101641A (zh) * 2016-07-18 2016-11-09 中国科学院地理科学与资源研究所 视频监测系统及其监测方法
CN106447700A (zh) * 2016-10-26 2017-02-22 中国科学院长春光学精密机械与物理研究所 经纬仪中多传感器协同跟踪装置及跟踪方法
CN106570486A (zh) * 2016-11-09 2017-04-19 华南理工大学 基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法
CN107193012A (zh) * 2017-05-05 2017-09-22 江苏大学 基于imm‑mht算法的智能车激光雷达机动多目标跟踪方法
CN107255818A (zh) * 2017-06-13 2017-10-17 厦门大学 一种两维多特征融合的水下目标快速检测方法
CN107677372A (zh) * 2017-09-11 2018-02-09 华中科技大学 一种基于双目视觉的隧道检测方法
CN108037543A (zh) * 2017-12-12 2018-05-15 河南理工大学 一种监测低空无人飞行器的多谱红外成像检测跟踪方法
CN108168706A (zh) * 2017-12-12 2018-06-15 河南理工大学 一种监测低空无人飞行器的多谱红外成像检测跟踪系统
CN108416372A (zh) * 2018-02-11 2018-08-17 同济大学 基于多种传感器的风电场风速获取方法
CN109444898A (zh) * 2018-09-13 2019-03-08 中国船舶重工集团公司第七〇五研究所 一种主动声纳单频跟踪方法
CN111209810A (zh) * 2018-12-26 2020-05-29 浙江大学 向可见光与红外图像准确实时行人检测的边界框分割监督深度神经网络架构
CN111220167A (zh) * 2018-11-27 2020-06-02 通用汽车环球科技运作有限责任公司 应用地图以改善目标跟踪、车道分配和分类的系统和方法
CN111291762A (zh) * 2020-03-10 2020-06-16 上海航天控制技术研究所 一种基于多特征点差异的多波段图像融合检测方法
CN111353510A (zh) * 2018-12-20 2020-06-30 长沙智能驾驶研究院有限公司 多传感器目标检测方法、装置、计算机设备和存储介质
CN111369594A (zh) * 2020-03-31 2020-07-03 北京旋极信息技术股份有限公司 一种实现目标跟踪的方法、装置、计算机存储介质及终端
CN112272273A (zh) * 2020-10-21 2021-01-26 福建碧霞环保科技有限公司 一种现场环境感知智慧站房用多角度监控设备
CN112799143A (zh) * 2020-12-01 2021-05-14 中国电子科技集团公司第十一研究所 一种目标识别方法、光电系统及可读存储介质
CN114782502A (zh) * 2022-06-16 2022-07-22 浙江宇视科技有限公司 一种多光谱多传感器协同处理方法及装置、存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1282132C (zh) * 2004-05-20 2006-10-25 上海交通大学 基于运动目标检测的红外和可见光动态图像融合方法

Cited By (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102147468A (zh) * 2011-01-07 2011-08-10 西安电子科技大学 基于贝叶斯理论的多传感器检测跟踪联合处理方法
CN102147468B (zh) * 2011-01-07 2013-02-27 西安电子科技大学 基于贝叶斯理论的多传感器检测跟踪联合处理方法
CN102129691A (zh) * 2011-03-22 2011-07-20 北京航空航天大学 一种采用Snake轮廓模型的视频对象跟踪分割方法
CN102393913B (zh) * 2011-10-31 2017-04-05 北京航空航天大学 一种基于光谱指纹特征的弱小目标精确跟踪方法
CN102393913A (zh) * 2011-10-31 2012-03-28 北京航空航天大学 一种基于光谱指纹特征的弱小目标精确跟踪方法
CN102542261A (zh) * 2011-12-31 2012-07-04 华中科技大学 一种二维可计算的目标探测、识别及辨识性能预测方法
CN102542261B (zh) * 2011-12-31 2014-03-26 华中科技大学 一种二维可计算的目标探测、识别及辨识性能预测方法
CN103391430A (zh) * 2013-07-22 2013-11-13 南通大学 基于dsp的相关跟踪方法及专用装置
CN103391430B (zh) * 2013-07-22 2014-09-10 南通大学 基于dsp的相关跟踪方法及专用装置
CN104038744A (zh) * 2013-07-22 2014-09-10 南通大学 跟踪成功率的基于dsp的相关跟踪方法
CN105277228A (zh) * 2014-05-27 2016-01-27 齐鲁工业大学 一种关于蔬菜废弃物发酵的多传感器数据融合方法
CN104539874A (zh) * 2014-06-17 2015-04-22 武汉理工大学 融合热释电传感与摄像机的人体混合监控系统及方法
CN105306896B (zh) * 2015-10-27 2018-07-10 杭州永控科技有限公司 基于光定位的案件卷宗移交方法及系统
CN105306896A (zh) * 2015-10-27 2016-02-03 杭州永控科技有限公司 基于光定位的案件卷宗移交方法及系统
CN105719312A (zh) * 2016-01-19 2016-06-29 深圳大学 基于序贯贝叶斯滤波的多目标跟踪方法及跟踪系统
CN105719312B (zh) * 2016-01-19 2018-07-27 深圳大学 基于序贯贝叶斯滤波的多目标跟踪方法及跟踪系统
CN106101641A (zh) * 2016-07-18 2016-11-09 中国科学院地理科学与资源研究所 视频监测系统及其监测方法
CN106447700A (zh) * 2016-10-26 2017-02-22 中国科学院长春光学精密机械与物理研究所 经纬仪中多传感器协同跟踪装置及跟踪方法
CN106447700B (zh) * 2016-10-26 2019-06-04 中国科学院长春光学精密机械与物理研究所 经纬仪中多传感器协同跟踪方法
CN106570486B (zh) * 2016-11-09 2019-05-14 华南理工大学 基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法
CN106570486A (zh) * 2016-11-09 2017-04-19 华南理工大学 基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法
CN107193012A (zh) * 2017-05-05 2017-09-22 江苏大学 基于imm‑mht算法的智能车激光雷达机动多目标跟踪方法
CN107255818A (zh) * 2017-06-13 2017-10-17 厦门大学 一种两维多特征融合的水下目标快速检测方法
CN107677372A (zh) * 2017-09-11 2018-02-09 华中科技大学 一种基于双目视觉的隧道检测方法
CN107677372B (zh) * 2017-09-11 2019-10-08 华中科技大学 一种基于双目视觉的隧道检测方法
CN108168706B (zh) * 2017-12-12 2019-07-26 河南理工大学 一种监测低空无人飞行器的多谱红外成像检测跟踪系统
CN108037543B (zh) * 2017-12-12 2019-07-26 河南理工大学 一种监测低空无人飞行器的多谱红外成像检测跟踪方法
CN108168706A (zh) * 2017-12-12 2018-06-15 河南理工大学 一种监测低空无人飞行器的多谱红外成像检测跟踪系统
CN108037543A (zh) * 2017-12-12 2018-05-15 河南理工大学 一种监测低空无人飞行器的多谱红外成像检测跟踪方法
CN108416372A (zh) * 2018-02-11 2018-08-17 同济大学 基于多种传感器的风电场风速获取方法
CN108416372B (zh) * 2018-02-11 2022-07-19 同济大学 基于多种传感器的风电场风速获取方法
CN109444898B (zh) * 2018-09-13 2020-09-04 中国船舶重工集团公司第七一五研究所 一种主动声纳单频跟踪方法
CN109444898A (zh) * 2018-09-13 2019-03-08 中国船舶重工集团公司第七〇五研究所 一种主动声纳单频跟踪方法
CN111220167B (zh) * 2018-11-27 2023-12-12 通用汽车环球科技运作有限责任公司 应用地图以改善目标跟踪、车道分配和分类的系统和方法
CN111220167A (zh) * 2018-11-27 2020-06-02 通用汽车环球科技运作有限责任公司 应用地图以改善目标跟踪、车道分配和分类的系统和方法
CN111353510A (zh) * 2018-12-20 2020-06-30 长沙智能驾驶研究院有限公司 多传感器目标检测方法、装置、计算机设备和存储介质
CN111209810B (zh) * 2018-12-26 2023-05-26 浙江大学 向可见光与红外图像准确实时行人检测的边界框分割监督深度神经网络架构
CN111209810A (zh) * 2018-12-26 2020-05-29 浙江大学 向可见光与红外图像准确实时行人检测的边界框分割监督深度神经网络架构
CN111291762A (zh) * 2020-03-10 2020-06-16 上海航天控制技术研究所 一种基于多特征点差异的多波段图像融合检测方法
CN111291762B (zh) * 2020-03-10 2022-12-13 上海航天控制技术研究所 一种基于多特征点差异的多波段图像融合检测方法
CN111369594A (zh) * 2020-03-31 2020-07-03 北京旋极信息技术股份有限公司 一种实现目标跟踪的方法、装置、计算机存储介质及终端
CN112272273A (zh) * 2020-10-21 2021-01-26 福建碧霞环保科技有限公司 一种现场环境感知智慧站房用多角度监控设备
CN112799143A (zh) * 2020-12-01 2021-05-14 中国电子科技集团公司第十一研究所 一种目标识别方法、光电系统及可读存储介质
CN112799143B (zh) * 2020-12-01 2023-03-03 中国电子科技集团公司第十一研究所 一种目标识别方法、光电系统及可读存储介质
CN114782502A (zh) * 2022-06-16 2022-07-22 浙江宇视科技有限公司 一种多光谱多传感器协同处理方法及装置、存储介质

Also Published As

Publication number Publication date
CN101252677B (zh) 2010-05-19

Similar Documents

Publication Publication Date Title
CN101252677B (zh) 一种基于多光谱图像传感器的目标跟踪方法
CN109949375B (zh) 一种基于深度图感兴趣区域的移动机器人目标跟踪方法
Zhou et al. Review of stereo matching algorithms based on deep learning
Dockstader et al. Multiple camera fusion for multi-object tracking
CN105335986B (zh) 基于特征匹配和MeanShift算法的目标跟踪方法
CN111311666B (zh) 一种融合边缘特征和深度学习的单目视觉里程计方法
Li et al. A novel spatio-temporal saliency approach for robust dim moving target detection from airborne infrared image sequences
Dockstader et al. Multiple camera tracking of interacting and occluded human motion
CN101369346B (zh) 一种视频运动目标自适应窗口的跟踪方法
EP2680228B1 (en) Improvements in or relating to three dimensional close interactions.
CN103106667B (zh) 一种面向遮挡和场景变换的运动对象追踪方法
CN104616318A (zh) 一种视频序列图像中的运动目标跟踪方法
CN102609945B (zh) 可见光和热红外图像序列自动配准方法
CN103325126A (zh) 一种在尺度变化和遮挡情况下的视频目标跟踪方法
CN107767406B (zh) 一种基于ds证据理论的多光谱图像弱小目标跟踪方法
CN103761747B (zh) 一种基于加权分布场的目标跟踪方法
CN108460790A (zh) 一种基于一致性预测器模型的视觉跟踪方法
CN104820997A (zh) 一种基于分块稀疏表达与hsv特征融合的目标跟踪方法
Tu et al. Consistent 3d hand reconstruction in video via self-supervised learning
CN111476077A (zh) 一种基于深度学习的多视角步态识别方法
Jia et al. Vision based data fusion for autonomous vehicles target tracking using interacting multiple dynamic models
CN102289822A (zh) 一种多摄像机协同跟踪运动目标的方法
CN117606497A (zh) 一种实时地图构建方法、系统及导盲眼镜
Wu et al. Research progress of obstacle detection based on monocular vision
Einhorn et al. A Hybrid Kalman Filter Based Algorithm for Real-time Visual Obstacle Detection.

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20100519

Termination date: 20121019