CN103971384B - 一种无线视频传感器节点协作目标跟踪方法 - Google Patents

一种无线视频传感器节点协作目标跟踪方法 Download PDF

Info

Publication number
CN103971384B
CN103971384B CN201410227578.0A CN201410227578A CN103971384B CN 103971384 B CN103971384 B CN 103971384B CN 201410227578 A CN201410227578 A CN 201410227578A CN 103971384 B CN103971384 B CN 103971384B
Authority
CN
China
Prior art keywords
target
pixel
node
background
target area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201410227578.0A
Other languages
English (en)
Other versions
CN103971384A (zh
Inventor
方武
冯蓉珍
宋志强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nova Electronics Co ltd
Original Assignee
Suzhou Institute of Trade and Commerce
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Institute of Trade and Commerce filed Critical Suzhou Institute of Trade and Commerce
Priority to CN201410227578.0A priority Critical patent/CN103971384B/zh
Publication of CN103971384A publication Critical patent/CN103971384A/zh
Application granted granted Critical
Publication of CN103971384B publication Critical patent/CN103971384B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及一种无线视频传感器节点协作目标跟踪方法,通过PIR传感器检测到目标,并触发若干视频节点作为候选节点;通过自适应高斯混合背景建模,实现运动目标的检测与分割;通过分布式Mean shift与目标关联实现节点的目标跟踪,结合传感器节点的检测效果、通信能耗等因素确定传感器网络效能评估函数,选择最优传感器节点进行目标跟踪,实现了对大范围内复杂场景下运动目标的准确跟踪。

Description

一种无线视频传感器节点协作目标跟踪方法
技术领域
本发明涉及一种协作目标跟踪方法,尤其涉及一种无线视频传感器节点协作目标跟踪方法。
背景技术
无线视频传感器网络由大量具有通信和计算能力的视频节点按特定的方式或者随机地布置在监控区域内构成的“智能”自治测控无线网络系统。视频传感器节点间具有很强的协同能力,通过局部的图像数据采集、处理以及节点间的数据交互完成全局任务。与传统监控模式相比,采用无线视频传感器网络构建分布式智能监控系统具有无人值守、覆盖率广、性能稳定、灵活性高、监控场景可以实现任意组合的优点,特别适合在交通路口、机场和地铁站等关键区域或恶劣环境下的目标跟踪和事件监测。
目标跟踪是无线视频传感器网络的一个重要应用,与传统的传感器网络相比,利用无线视频传感器网络进行目标跟踪具有两方面优点:
1)相较于其它类型的传感器节点,如红外、震动传感器,能够提供更加直观的目标运动图像信息。
2)利用图像处理技术和模式识别等技术,能够实现对目标更智能地跟踪,分类以及行为分析。
然而,由于视频图像处理以及传输数据量大,受传感器节点资源和能耗的限制,传统的跟踪算法并不适用于无线视频传感器网络。基于无线视频传感器网络的视觉跟踪算法必须是协同的和分布式的,具有较低的通信代价,能实时传输跟踪数据与决策信息,根据节点局部信息估计目标运动状态,其信息的有效获取同时减少能量消耗是国内外研究的热点问题。
早期的跟踪算法有分布式粒子滤波(DPF)跟踪算法,但该方法需要假设各传感器节点的观测相互独立,并且在算法执行前需要复杂的学习过程,计算量较大,不适合无线视频传感器网络。有的算法通过比较传感器中目标的外形选择最合适的节点。一些算法基于双图像节点网络的方法。通过颜色直方图的目标识别算法来平衡识别精度与计算效率的矛盾。然而,这些方法没有考虑图像节点的剩余能耗,导致网络生命时间有限。为了能判断目标跟踪的效果,许多相关文献提出了节点协作方法。一些算法对于环境监控的节点选择和管理算法。该算法是节点协作的目标定位算法,该算法分为两步:目标探测和目标定位。利用不同的策略来进行目标的定位,同时最小化能量消耗。该算法将WSN的目标跟踪问题归结为最大化信息效能同时降低平均能耗。该算法通过无迹卡尔曼滤波算法预测目标轨迹来进行最优节点的选择。后有人提出一种采用分布式多视角协同信号处理方法,该方法采用基于效能的分布式数据融合目标函数进行节点的协作。通过视频节点的建模研究,该算法针对于目标跟踪的视频节点的激活策略,该策略很多好地平衡了跟踪精度以及网络计算资源。然而,该方法并没有考虑网络的能耗。
上述方法对WSN目标跟踪、网络能耗等问题进行了研究,但都没有考虑目标视觉特性。无线传感器网络的目标跟踪实质是多个节点协作跟踪的过程,其关键问题在于如何管理参与跟踪的节点,比如哪些节点参与跟踪、何时唤醒参与跟踪的节点,如何实现节点跟踪信息的融合等。
发明内容
本发明的目的在于提供一种无线视频传感器节点协作目标跟踪方法,综合考虑目标跟踪效果和节点能耗因素,通过无线视频传感器节点协作,来提高图像目标跟踪的效能。
为了实现上述目的,一种无线视频传感器节点协作目标跟踪方法,包括以下步骤:
激活节点步骤:通过PIR传感器检测到目标,并触发若干视频节点作为候选节点;
目标检测步骤:通过混合高斯模型对各候选节点的各像素建立至少一个背景模型,用第一帧图像数据对所述背景模型进行初始化,对每个背景模型设定统一的背景阈值,像素点权值大于该背景阈值的背景模型描述的为背景分布,像素点权值小于等于该背景阈值的背景模型描述的为前景分布,用像素值重新初始化权值小于初始化阈值的背景模型;背景模型的分布参数按优先级从大到小与对应的当前像素值逐一匹配检测,判定背景模型均与当前像素值不匹配的像素点为目标区域内的点,对匹配成功的背景模型更新分布参数,对各背景模型更新权重;
目标跟踪步骤:对在初次出现的目标区域,计算其特征空间中特征值的概率,通过求相似性函数最大得到关于所述目标区域的Mean Shift向量,迭代计算若干帧Mean Shift向量,得到所述目标区域的真实位置。
较佳地,所述目标跟踪步骤还包括:通过Mean Shift向量得到Bhattacharyya系数
较佳地,还包括视频节点选择步骤:通过效能函数f(i)来选择最优节点进行目标检测以及目标跟踪,
其中a为权值,Sj,t(i)为视频节点i第t帧图像检测到目标像素值,β为调整参数,S是探测到第j个目标的视频节点集合;效能值φcost(i)为:
φ cos t ( i ) = ( d c , i ) 2 H ( s i ) = ( d c , i ) 2 - Σ j p ( E r e s ( i ) ) log p ( E r e s ( i ) ) ,
其中dc,i为传输距离,H(si)为网络剩余能耗的熵;
剩余能耗Eres(i)为:
Eres(i)=Ei-Es(i)-Etx(i)-Erx(i)-Ecomp,其中Ei为节点总能耗,Es(i)为感知能耗,Etx(i)为发送数据能耗,Erx(i)为接收数据能耗,Ecomp是计算能耗。
较佳地,分布参数按优先级与当前像素值进行逐一匹配检测,即判别是否满足|μi,t-xt|<max(Wσi,t,τ),式中i=1,2,…,K,K为各像素高斯分布的个数,μi,t和σi,t分别为在t时刻第i个高斯分布的均值和标准方差,xt为前像素值,W和τ均为阈值常量。
较佳地,将上一帧检测出的目标区域经过扩展后作为当前帧的目标区域进行匹配检测,在目标区域外的像素点采用紧的匹配准则,即τ与W均取较大值;在目标区域内的像素点采用松的匹配准则,即τ与W均取较小值,其中,0.5<=W<=3.5,3<=τ<=20。
较佳地,其特征在于,将上一帧目标区域扩展10%作为当前帧的目标区域,在目标区域外的像素点取W=2.5,τ=15,在目标区域内的像素点取W=1.5,τ=6。
较佳地,目标跟踪步骤中,假设其中有n个像素点用{xi}i=1...n表示,特征值bin的个数为m,则目标模型的特征值估计的概率密度为:
其中x0为目标区域中心,k(x)为核函数的轮廓函数,h表示核函数的带宽,u=1...m为目标特征值;
候选区域中心y0移向真实目标区域y的Mean Shift向量:
M h . G ( y ) = m h . G ( y ) - y 0 = y 1 - y 0 = &Sigma; i = 1 n h x i &omega; i g ( | | y - x i h | | 2 ) &Sigma; i = 1 n h &omega; i g ( | | y - x i h | | 2 ) - y 0
其中:g(x)=-k′(x),Mh.G(y)是目标中心从起始点y0向y运动的向量。
较佳地,给定一个初始点y0核函数G(x),容许误差ε,循环迭代计算若干帧MeanShift向量并赋值给y,直至满足结束条件:||mh.G(y)-y||<ε。
较佳地,迭代计算若干帧Mean Shift向量时,分别对目标区域原框大小、0.9倍的目标区域原框大小和1.1倍的目标区域原框大小进行计算,取三个框中相关系数最大的框作为下一帧中的初始框的大小。
较佳地,初始化至少一个背景模型时,通过第一帧各点像素值用来初始化高斯分布均值μK,0,第一帧各点像素值的标准方差σK,0取15<=σK,0<=25,权重为1/Kmax,Kmax为每个像素点的最大高斯分布个数。
本发明由于采用以上技术方案,与现有技术相比,具有以下的优点和积极效果:
本发明采取的方法综合考虑计算复杂度、数据的传输、存储需求,采用自适应高斯混合背景建模,实现运动目标的检测与分割;通过分布式Mean shift与目标关联实现节点的目标跟踪,结合传感器节点的检测效果、通信能耗等因素确定传感器网络效能评估函数,选择最优传感器节点进行目标跟踪,实现了对大范围内复杂场景下运动目标的准确跟踪。
附图说明
图1为本发明一种无线视频传感器节点协作目标跟踪方法的流程图;
图2为本发明一种无线视频传感器节点协作目标跟踪方法的总框图;
图3为本发明与无节点协作的目标跟踪方法以及基于检测效果函数的目标跟踪方法的跟踪误差比较图;
图4为本发明与无节点协作的目标跟踪方法以及基于检测效果函数的目标跟踪方法的能耗比较图。
具体实施方式
下面参照附图和具体实施例来进一步说明本发明。
能量、计算复杂度、通信带宽是无线视频传感器网络的关键制约因素,单个节点无法胜任复杂场景下运动目标的准确跟踪,而要实现对大范围内运动目标的跟踪更需要多个节点协同工作。基于无线视频传感器网络的目标跟踪过程如图1所示。采取的方法综合考虑计算复杂度、数据的传输、存储需求,采用自适应高斯混合背景建模,实现运动目标的检测与分割;通过分布式Mean shift与目标关联实现节点的目标跟踪与状态估计。结合传感器节点的检测效果、通信能耗等因素确定传感器网络效能评估函数,选择最优传感器节点进行目标跟踪。
如附图所示,本发明提供的一种无线视频传感器节点协作目标跟踪方法,下面详细对各步骤进行说明。
激活节点步骤:通过PIR传感器检测到目标,并触发若干视频节点作为候选节点,标识为激活状态。
目标检测步骤:通过混合高斯模型对各候选节点的各像素建立至少一个背景模型,用第一帧图像数据对所述背景模型进行初始化,对每个背景模型设定统一的背景阈值,像素点权值大于该背景阈值的背景模型描述的为背景分布,像素点权值小于等于该背景阈值的背景模型描述的为前景分布,用像素值重新初始化权值小于初始化阈值的背景模型;背景模型的分布参数按优先级从大到小与对应的当前像素值逐一匹配检测,判定背景模型均与当前像素值不匹配的像素点为目标区域内的点,对匹配成功的背景模型更新分布参数,对各背景模型更新权重。
每个候选节点采用自适应混合高斯模式进行背景建模。假设图像中的每个像素在一段观察时间内与其它像素无关,这样,背景建模可对各像素单独处理。当背景处于静止状态或场景变化缓慢时,单高斯背景模型可以较好地描述背景像素的噪声。但对于比较复杂、光照缓慢变化和存在小幅度周期运动的背景,比如喷泉、摇动的树木、飘扬的旗帜以及雨雪天气等情况,像素往往呈现双峰或多峰状态,要对背景准确建模就必须采用多个高斯分布的线性组合,即混合高斯模型(GMM)。利用GMM对每个像素建立背景模型,能够描述像素的双峰或多峰状态,并能适应光照变化、背景混乱运动的干扰等情况。目标检测完成后,对检测到的目标进行后处理,包括去阴影,去噪声和空洞填充等处理。
在传统的混合高斯建模方法中,在RGB色彩空间对每一像素点进行混合高斯建模,使用K(一般为3-5)个高斯分布来表征图像中各个像素点的特征,其中若干个高斯分布对应为候选的背景模型。各高斯分布分别具有不同的权值ωi,t(Σωi,t=1,i=1,2,…,K)和优先级(ω/σ),它们总是按照优先级从高到低的次序排序。取定适当的背景权值部分和阈值,只有在此阈值之内的前若干个分布才被认为是背景分布,其它的则是前景分布。设xt是t时刻的某一像素值,其概率密度函数可以表示为K个高斯分布fi,t(x|μ,σ2)i=1,2,…,K的线性组合:
式中d表示RGB颜色空间的维数,ωi,t、μi,t和Σi,t分别为在t时刻第i个高斯分布的权值、均值和协方差矩阵。从计算角度考虑,协方差矩阵经常记为:K个高斯分布按ω/σ降序排列,由于匹配的高斯分布的方差和权重都会改变,排序的目的是为了保证最有可能是背景的高斯分布排在前面。排序之后,仅仅取前面的B个高斯分布表示背景分布,即其中b指所有权值的个数,B是排序在前面的B个权值;式中TH为背景阈值。
本发明中采用的目标检测步骤,在YUV色彩空间对每一像素点进行混合高斯建模。t时刻某一像素值xt的概率密度函数仍表示为式(3),在确定背景分布时,并不是按式(5)对各分布的和取阈值,而是对单个分布取阈值。当某个高斯分布的权值大于或等于该阈值时,该高斯分布被认为是背景分布,反之则是前景分布。这样做的好处是,某个分布只要权值满足阈值就会被当作是背景分布,而不需要考虑其他分布的权值大小,这样各个分布能够独立的进入背景模型,互不影响。另外,当某个高斯分布的权值很小,小于初始化阈值时说明该分布描述的背景像素很久没出现过了,则背景模型不必再保留该分布,需要用当前像素重新初始化该分布,以便使模型有机会描述新的背景。
本发明中模型参数初始化与已有GMM不同的是,图像各像素点不采用固定个数的高斯分布描述,而是根据各点像素值出现的混乱程度采取不同个数的高斯分布。一部分变化很小或是保持静态的像素只需一个高斯分布就可描述,其他变化较大的非静态点可根据实际情况用多个高斯分布表示。这样可以提高计算效率,保证算法的实时性。算法设定描述每个像素点的最大高斯分布个数为Kmax=4。初始化背景模型时,每个像素点高斯模型个数初始设定为K=1,通过第一帧各点像素值用来初始化高斯分布均值μK,0,第一帧各点像素值的标准方差σK,0取相对较大的值,一般为15<=σK,0<=25,本实施例中,σK,0=20,高斯权重为1/Kmax。
背景模型的学习与更新,在检测前景点时,按照优先级次序ω/σ从大到小将xt与各高斯分布逐一匹配,若没有表示背景模型的高斯分布与xt匹配,则判定该点为前景点,否则为背景点。若检测时没有找到任何高斯分布与xt匹配,则按照新高斯分布生成准则进行相应处理。具体实现如下:
已存在的K个高斯分布参数按优先级与当前像素值xt进行逐一匹配检测,即判别是否满足|μi,t-xt|<max(Wσi,t,τ)(i=1,2,…,K),式中μi,t和σi,t分别为在t时刻第i个高斯分布的均值和标准方差,xt为前像素值,W和τ均为阈值常量。这里,对不同区域像素采用了不同的判别准则,具体方法是:将上一帧检测出的目标区域经过扩展后作为当前帧的目标区域进行匹配检测,在目标区域外的像素点采用紧的匹配准则,即τ与W均取较大值;在目标区域内的像素点采用松的匹配准则,即τ与W均取较小值,其中,0.5<=W<=3.5,3<=τ<=20。实验中采取了将上一帧区域扩展10%作为当前帧的目标区域;当前像素在目标区域外时采用紧的匹配准则,取W=2.5,τ=15;当前像素在目标区域内时采用松的匹配准则,取W=1.5,τ=6。通过对各种室内、外场景序列的实验发现τ不易过小,取上面的经验值基本可满足大多数情况的要求。这样做基于三点考虑:一是认为目标区域内的像素是前景的可能性要比目标区域外的点大,因此设定两个不同的判决条件;二是考虑到背景像素值不一定严格满足理想的高斯分布,取较大的值作为阈值给判决留出了一定的裕量;三是引入常量τ是为防止背景静止时某一高斯分布由于长期满足匹配条件,该分布的方差持续减小,当方差很小时该高斯分布概率密度非常陡峭,很容易出现因噪声的影响导致当前像素不再满足此分布,从而被误判为前景。
背景学习与更新采用相同的迭代等式同时进行。用当前观测值与已存在的第i个高斯模型匹配,如果成功则按下式更新匹配的第i个高斯模型分布参数:
&mu; i , t + 1 = ( 1 - &beta; i ) &mu; i , t + &beta; i x t &sigma; i , t + 1 2 = ( 1 - &beta; i ) &sigma; i , t 2 + &beta; i ( x t - &mu; i , t ) T ( x t - &mu; i , t )
式中对于没有匹配成功的高斯分布,其μ、σ保持不变。
K个高斯分布的权重按下式更新:ωi,t+1=(1-αii,tiMi,t;ωi,t+1表示第t+1帧第i个背景模型的权值。
式中其中μi,t和σi,t分别为在t时刻第i个高斯分布的均值和标准方差,对于匹配的高斯分布Mi,t=1,其他不匹配的K-1个成分Mi,t=0。在更新完高斯分布的参数和各分布权值后,还要对各个分布重新计算优先级并进行排序,确定属于背景模型的高斯分布。α决定高斯分布权重的更新速度,确定其在背景中的优先级,α越小,背景成分越稳定;β决定背景的更新速度,β越大,高斯分布收敛速度越快。实验中发现α取较小的值,β取一个相对较大的值,可以较好地在提高收敛速率的同时保持背景模型的稳定性。本实施例中,α=0.005,背景阈值为0.2;初始化阈值为0.01。
目标跟踪步骤:对在初次出现的目标区域,计算其特征空间中特征值的概率,通过求相似性函数最大得到关于所述目标区域的Mean Shift向量,迭代计算若干帧Mean Shift向量,得到所述目标区域的真实位置,通过Mean Shif向量得到Bhattacharyya系数
在起始帧,选取目标区域(即核函数)后,假定图像像素的值域是RGB颜色空间,将RGB颜色空间中的每个子通道分成k个区间,每个区间称为一个bin,在区间数为m=k3的特征空间中构建目标颜色直方图。在特征空间中,统计初始帧目标区域内所有的像素点落在各区间的概率,得到目标模型。在随后各帧图像中的目标候选区域中计算特征空间中每个特征值的概率得到候选模型。计算初始帧目标模型和当前帧候选模型的相似程度,通过最大化相似性函数得到目标的Mean shift向量,即目标从初始位置向目标位置转移的向量,通过在当前帧中迭代计算Mean shift向量,最终会收敛到目标的真实位置,从而实现目标跟踪。
具体实现方法:假设其中有n个像素用{xi}i=1...n表示,特征值bin的个数为m,则目标模型的特征值估计的概率密度为:
其中x0为目标区域中心,k(x)为核函数的轮廓函数,h表示核函数的带宽,u=1...m为目标特征值;
候选区域中心y0移向真实目标区域y的Mean Shift向量:
M h . G ( y ) = m h . G ( y ) - y 0 = y 1 - y 0 = &Sigma; i = 1 n h x i &omega; i g ( | | y - x i h | | 2 ) &Sigma; i = 1 n h &omega; i g ( | | y - x i h | | 2 ) - y 0
其中:g(x)=-k′(x),Mh.G(y)是目标中心从起始点y0向y运动的向量。
给定一个初始点y0核函数G(x),容许误差ε,循环迭代计算若干帧Mean Shift向量并赋值给y,直至满足结束条件:||mh.G(y)-y||<ε。在迭代计算若干帧Mean Shift向量时,分别对目标区域原框大小、0.9倍的目标区域原框大小和1.1倍的目标区域原框大小进行计算,取三个框中相关系数最大的框作为下一帧中的初始框的大小。
采用mean shift算法可以自动输出Bhattacharyya系数其值域范围为[0,1],表示目标模型与候选模型概率密度估计之间的Bhattacharyya系数。显然越大,Bhattacharyya距离就越小,两个概率密度函数越具有相似性。通过最大化可以得到运动目标在图像中的最优位置y。该系数表示候选目标跟上一帧目标相似度大小,因此可以很好地描述跟踪效果好坏。
视频节点选择步骤:基于图像目标检测和跟踪结果以及能量消耗,构建效能函数来选择最优节点联盟进行目标检测以及目标跟踪。函数主要考虑以下3个因素。一、跟踪的效果由Bhattacharyya巴氏系数衡量;二、目标尺寸的大小(像素值)来描述检测结果的好坏;三、节点剩余能量情况,具体实现方法如下:
通过效能函数f(i)来选择最优节点进行目标跟踪,
其中Sj,t(i)为视频节点i第t帧图像检测到目标像素值,β为调整参数,S是探测到第j个目标的视频节点集合;效能值φcost(i)为:
&phi; cos t ( i ) = ( d c , i ) 2 H ( s i ) = ( d c , i ) 2 - &Sigma; j p ( E r e s ( i ) ) log p ( E r e s ( i ) ) ,
其中dc,i为传输距离,H(si)为网络剩余能耗的熵,其中P为数据包位数,a为权值;剩余能耗Eres(i)为:
Eres(i)=Ei-Es(i)-Etx(i)-Erx(i)-Ecomp,其中Ei为节点总能耗,Es(i)为感知能耗,因不同摄像头而异;Etx(i)为发送数据能耗,计算公式为Etx(i)=Eep+εad2;Erx(i)为接收数据能耗,计算公式为Erx(i)=Eep;Ecomp是计算能耗,计算公式为其中,上述公式中P为数据包位数,d为数据传输距离,Ee为每数据位的电气能耗,εa为接收端端放大信号所需能耗;L为任务周期,C为平均电容开关周期,Vs计算电压。
为了评估本发明的效果,比较了其他两种方法,附图3-4中所示,A-无节点协作的目标跟踪,只要探测到目标的节点均进行跟踪;B-采用一种基于检测效果函数的目标跟踪,根据检测的目标尺寸进行节点选择;C-本文提出的方法。通过目标通过的监控区域的3个子区域(0-4s),(4-9s),(9-13s)的视频节点进行10次采样平均能量消耗进行比较,本发明采用的方法相对跟踪误差比较小,且平均能量消耗适中。
综上所述,本申请先选择激活节点进行目标检测,目标跟踪,再通过效能函数f(i)来选择当前的最优节点进行目标跟踪,如图1-2中所示的过程,目标检测采用自适应高斯混合背景建模,实现运动目标的检测与分割;通过分布式Mean shift与目标关联实现节点的目标跟踪与状态估计,结合传感器节点的检测效果、通信能耗等因素确定传感器网络效能评估函数,选择最优传感器节点进行目标跟踪。综合考虑计算复杂度、数据的传输、存储需求,实现了对大范围内复杂场景下运动目标的准确跟踪。
上述公开的仅为本发明的具体实施例,该实施例只为更清楚的说明本发明所用,而并非对本发明的限定,任何本领域的技术人员能思之的变化,都应落在保护范围内。

Claims (5)

1.一种无线视频传感器节点协作目标跟踪方法,其特征在于,包括以下步骤:
激活节点步骤:通过PIR传感器检测到目标,并触发若干视频节点作为候选节点;
目标检测步骤:通过混合高斯模型对各候选节点的各像素建立至少一个背景模型,用第一帧图像数据对所述背景模型进行初始化,对每个背景模型设定统一的背景阈值,像素点的权值大于该背景阈值的背景模型描述的为背景分布,像素点的权值小于等于该背景阈值的背景模型描述的为前景分布,用像素值重新初始化权值小于初始化背景阈值的背景模型;
背景模型的分布参数按优先级从大到小与对应的当前像素值逐一匹配检测,判定背景模型均与当前像素值不匹配的像素点为目标区域内的点,对匹配成功的背景模型更新分布参数,对各背景模型更新权重;
目标跟踪步骤:对在初次出现的目标区域,计算其特征空间中特征值的概率,通过求相似性函数最大得到关于所述目标区域的Mean Shift向量,迭代计算若干帧Mean Shift向量,得到所述目标区域的真实位置;
所述目标跟踪步骤还包括:通过Mean Shift向量得到Bhattacharyya系数其中分别为目标模型概率密度和候选模型概率密度;
还包括视频节点选择步骤:通过效能函数f(i)来选择最优节点进行目标检测以及目标跟踪,
其中a为权值,Sj,t(i)为视频节点i第t帧图像检测到目标像素值,β为调整参数,S是探测到第j个目标的视频节点集合;效能值φcost(i)为:其中dc,i为传输距离,H(si)为网络剩余能耗的熵;
剩余能耗Eres(i)为:Eres(i)=Ei-Es(i)-Etx(i)-Erx(i)-Ecomp,其中Ei为节点总能耗,Es(i)为感知能耗,Etx(i)为发送数据能耗,Erx(i)为接收数据能耗,Ecomp是计算能耗。
2.如权利要求1所述的一种无线视频传感器节点协作目标跟踪方法,其特征在于,分布参数按优先级与当前像素值进行逐一匹配检测,即判别是否满足|μi,t-xt|<max(Wσi,t,τ),式中i=1,2,…,K,K为各像素高斯分布的个数,μi,t和σi,t分别为在t时刻第i个高斯分布的均值和标准方差,xt为当前像素值,W和τ均为阈值常量。
3.如权利要求2所述的一种无线视频传感器节点协作目标跟踪方法,其特征在于,将上一帧检测出的目标区域经过扩展后作为当前帧的目标区域进行匹配检测,在目标区域外的像素点采用紧的匹配准则,即τ与W均取较大值;在目标区域内的像素点采用松的匹配准则,即τ与W均取较小值,其中,0.5<=W<=3.5,3<=τ<=20。
4.如权利要求3所述的一种无线视频传感器节点协作目标跟踪方法,其特征在于,将上一帧目标区域扩展10%作为当前帧的目标区域,在目标区域外的像素点取W=2.5,τ=15,在目标区域内的像素点取W=1.5,τ=6。
5.如权利要求1所述的一种无线视频传感器节点协作目标跟踪方法,其特征在于,初始化背景模型时,通过第一帧各点像素值用来初始化高斯分布均值μK,0,第一帧各点像素值的标准方差σK,0取15<=σK,0<=25,权重为1/Kmax,Kmax为每个像素点的最大高斯分布个数。
CN201410227578.0A 2014-05-27 2014-05-27 一种无线视频传感器节点协作目标跟踪方法 Expired - Fee Related CN103971384B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410227578.0A CN103971384B (zh) 2014-05-27 2014-05-27 一种无线视频传感器节点协作目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410227578.0A CN103971384B (zh) 2014-05-27 2014-05-27 一种无线视频传感器节点协作目标跟踪方法

Publications (2)

Publication Number Publication Date
CN103971384A CN103971384A (zh) 2014-08-06
CN103971384B true CN103971384B (zh) 2017-01-25

Family

ID=51240833

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410227578.0A Expired - Fee Related CN103971384B (zh) 2014-05-27 2014-05-27 一种无线视频传感器节点协作目标跟踪方法

Country Status (1)

Country Link
CN (1) CN103971384B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106846370A (zh) * 2016-12-15 2017-06-13 苏州大学 用于人机互动的基于激光传感器深度摄像头系统数据处理方法
CN107976685B (zh) * 2017-11-20 2021-11-19 北京航空航天大学 一种基于物联网的红外传感器室内人体目标跟踪系统
CN108419249B (zh) * 2018-03-02 2021-07-02 中南民族大学 三维无线传感器网络分簇覆盖方法、终端设备及存储介质
CN110197121A (zh) * 2019-04-24 2019-09-03 上海理工大学 基于DirectShow的运动目标检测方法、运动目标检测模块及监控系统
CN110475044B (zh) * 2019-08-05 2021-08-03 Oppo广东移动通信有限公司 图像传输方法和装置、电子设备、计算机可读存储介质
CN112947035B (zh) * 2021-01-28 2022-03-08 四川写正智能科技有限公司 一种护眼正姿智能手表测距传感器安装及测距方法
CN115620098B (zh) * 2022-12-20 2023-03-10 中电信数字城市科技有限公司 跨摄像头行人跟踪算法的评价方法、系统和电子设备

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Automatic node selection and target tracking in wireless camera sensor networks;Yong Wang 等;《Computers and Electrical Engineering》;20140228;第40卷(第2期);摘要,第2节,第2.1-2.3节,第4节 *
Effective Gaussian mixture learning and shadow suppression for video foreground segmentation;Yong Wang 等;《SPIE Proceedings MIPPR 2007: Automatic Target Recognition and Image Analysis and Multispectral Image Acquisition》;20071115;第6786卷;第2.2节 *
Energy-Efficient Node Selection for Target Tracking in Wireless Sensor Networks;Yong Wang 等;《International Journal of Distributed Sensor Networks》;20130131;第2013卷(第3期);第1-6页 *
一种WSN下的Mean Shift跟踪算法;钱少科 等;《计算机应用研究》;20110228;第28卷(第2期);第645-647页 *
基于MeanShift的目标跟踪算法研究;李鹏飞;《中国优秀硕士论文全文数据库信息科技辑》;20090715;第2009年卷(第7期);第3章,第3.2节,第3.3节 *

Also Published As

Publication number Publication date
CN103971384A (zh) 2014-08-06

Similar Documents

Publication Publication Date Title
CN103971384B (zh) 一种无线视频传感器节点协作目标跟踪方法
US7668338B2 (en) Person tracking method and apparatus using robot
CN102436662B (zh) 一种非重叠视域多摄像机网络中的人体目标跟踪方法
CN103839065B (zh) 人群动态聚集特征提取方法
TWI382762B (zh) 移動物體的追蹤方法
CN105404847B (zh) 一种遗留物实时检测方法
CN104599290B (zh) 一种面向视频感知节点的目标检测方法
CN106127812B (zh) 一种基于视频监控的客运站非出入口区域的客流统计方法
CN107256386A (zh) 基于深度学习的人类行为分析方法
CN103077539A (zh) 一种复杂背景及遮挡条件下的运动目标跟踪方法
CN104091348A (zh) 融合显著特征和分块模板的多目标跟踪方法
CN103854292B (zh) 一种人数及人群运动方向的计算方法及装置
CN103942557B (zh) 一种煤矿井下图像预处理方法
CN104601964A (zh) 非重叠视域跨摄像机室内行人目标跟踪方法及系统
CN105528794A (zh) 基于混合高斯模型与超像素分割的运动目标检测方法
Saroya et al. Online exploration of tunnel networks leveraging topological CNN-based world predictions
CN103578119A (zh) 基于超像素的Codebook动态场景中目标检测方法
Vosters et al. Background subtraction under sudden illumination changes
CN103473530A (zh) 基于多视图和多模态特征的自适应动作识别方法
CN105426828A (zh) 人脸检测方法、装置及系统
CN101470809A (zh) 一种基于扩展混合高斯模型的运动目标检测方法
CN110544269A (zh) 基于特征金字塔的孪生网络红外目标跟踪方法
CN105913455A (zh) 基于局部图像增强的目标跟踪方法
CN106846378A (zh) 一种结合时空拓扑估计的跨摄像机目标匹配与跟踪方法
CN104809742A (zh) 一种复杂场景下的物品安全检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20201102

Address after: 870 Binhe Road, Suzhou hi tech Zone, Suzhou, Jiangsu Province

Patentee after: NOVA ELECTRONICS Co.,Ltd.

Address before: 215009 No. 287, Xuefu Road, Suzhou, Jiangsu

Patentee before: SUZHOU INSTITUTE OF TRADE & COMMERCE

TR01 Transfer of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170125