CN101179707A - 无线网络视频图像多视角协作目标跟踪测量方法 - Google Patents
无线网络视频图像多视角协作目标跟踪测量方法 Download PDFInfo
- Publication number
- CN101179707A CN101179707A CNA2007101221482A CN200710122148A CN101179707A CN 101179707 A CN101179707 A CN 101179707A CN A2007101221482 A CNA2007101221482 A CN A2007101221482A CN 200710122148 A CN200710122148 A CN 200710122148A CN 101179707 A CN101179707 A CN 101179707A
- Authority
- CN
- China
- Prior art keywords
- target
- node
- video image
- measurement
- visual angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000691 measurement method Methods 0.000 title claims abstract description 15
- 238000005259 measurement Methods 0.000 claims abstract description 58
- 238000012544 monitoring process Methods 0.000 claims abstract description 55
- 238000000034 method Methods 0.000 claims abstract description 51
- 238000009826 distribution Methods 0.000 claims abstract description 25
- 238000005265 energy consumption Methods 0.000 claims abstract description 23
- 238000010276 construction Methods 0.000 claims abstract description 9
- 230000033001 locomotion Effects 0.000 claims abstract description 7
- 238000011156 evaluation Methods 0.000 claims abstract description 6
- 230000004927 fusion Effects 0.000 claims description 28
- 238000012545 processing Methods 0.000 claims description 25
- 230000008569 process Effects 0.000 claims description 22
- 230000000007 visual effect Effects 0.000 claims description 20
- 230000000750 progressive effect Effects 0.000 claims description 16
- 230000004807 localization Effects 0.000 claims description 13
- 238000001914 filtration Methods 0.000 claims description 11
- 238000007500 overflow downdraw method Methods 0.000 claims description 10
- 238000007499 fusion processing Methods 0.000 claims description 8
- 230000003068 static effect Effects 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 5
- 238000005516 engineering process Methods 0.000 claims description 5
- 238000005286 illumination Methods 0.000 claims description 5
- 125000004122 cyclic group Chemical group 0.000 claims description 4
- 238000007476 Maximum Likelihood Methods 0.000 claims description 3
- 230000003213 activating effect Effects 0.000 claims description 2
- 238000004458 analytical method Methods 0.000 claims description 2
- 230000005540 biological transmission Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 238000011160 research Methods 0.000 description 5
- 238000012795 verification Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000006855 networking Effects 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 101100172132 Mus musculus Eif3a gene Proteins 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 241001269238 Data Species 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000005059 dormancy Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 238000009776 industrial production Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
Images
Landscapes
- Mobile Radio Communication Systems (AREA)
Abstract
一种无线网络视频图像多视角协作目标跟踪测量方法,能够实现对目标位置的准确定位,减少观测干涉,提高目标跟踪的准确性和鲁棒性。技术方案包括下列步骤:首先通过动态背景构建方法在单个无线视频图像监测节点中实现目标测量,得到仅含有目标的最小矩形边界;然后通过节点间的协作,采用渐进分布式数据融合方法,融合各无线视频图像监测节点的测量结果,实现对移动目标的协作式定位测量,在协作过程中综合采用基于能量熵和马氏距离的能耗、剩余能量、信息有效性、节点特性、信息反馈等多参数评价方法;为进行多目标监测,在融合定位之前对各节点多目标测量信号进行基于最优似然估计的数据关联;完成目标定位后,采用无迹卡尔曼滤波和最优似然估计方法实现对多移动目标的定位跟踪和数据关联,以获得多目标运动轨迹。
Description
技术领域
本发明属于机器视觉与模式识别技术领域,涉及一种目标监测和定位方法,具体涉及一种无线网络视频图像多视角协作目标跟踪测量方法。
背景技术
基于视频图像序列的目标跟踪技术,是机器视觉与模式识别领域的重要研究内容之一,在工业生产、军事、社区安全、交通监控等领域具有广泛的应用前景。实际应用中,通常采用单视角测量方法实现目标跟踪。但由于单视角测量方法受环境噪声影响大,目标容易被障碍物遮挡产生观测干涉,实际测量中对视频图像采集装置的可靠度要求高,且在无背景先验知识的前提下,仅能获得目标方位信息,无法完成对目标三维位置的准确跟踪。
随着无线网络技术的发展,网络化协作测量已经逐渐成为一种受到广泛关注的现代化测量手段。针对视频图像测量的特点,多视角协作测量有利于扩大跟踪范围,减少观测干涉,提高目标跟踪的准确性和鲁棒性。而无线网络相比于有线网络在灵活性、适用性和动态性上都更具优势。如何通过多个视频图像监测节点的有效协作,在无线网络条件下自主、智能、高效地完成对目标的准确跟踪已经成为一个倍受关注的研究领域。为了阐述基于无线网络测量的视频图像多视角协作目标跟踪测量方法,给出如下基本概念:
1、无线视频图像监测节点:无线视频图像监测节点(下文简称节点)是一种具有无线通信能力、视频图像采集能力和基本信号处理能力的设备,具有网络通信带宽小、能量有限、计算能力低等特点,能够在接收到测量指令好,独立实时地完成对指定区域的图像采集、存储、预处理、目标提取和信号传输。
2、中心处理节点:中心处理节点是一种具有无线通信能力和较强信号处理能力的设备,其网络带宽高、能量充足(可采用外部供能)、计算能力强,能够周期性地向无线视频图像监测节点发送指令完成测量任务,并接收各无线视频图像监测节点发回的信号,通过多视角协作跟踪测量方法实现对多目标的定位和跟踪。
3、无线视频图像监测网络:典型的无线视频图像监测网络由多个无线视频图像监测节点和一个中心处理节点组成。测量过程中,各无线视频图像监测节点独立完成不同视角的图像采集、目标提取等工作;中心处理节点根据测量需求周期性地向无线视频图像监测节点发送测量指令,获取后对各视频图像监测节点的监测结果进行融合,实现对多目标的准确跟踪。
4、测量指令:测量指令是由中央处理节点向各无线视频图像监测节点发布的指令,指明在特定时间内执行的特定测量任务。
5、多视角协作测量:多视角协作测量是指需要两个或多个无线视频图像监测节点根据一定策略协作,共同对目标实施监测的测量方法。由于单个无线视频图像监测节点的能量、带宽资源、感知范围和信号处理能力有限,因此无线视频图像监测节点间的协作对于提高无线视频图像监测网络的测量性能和容错能力至关重要。
如何有效地协调网络资源,实现网络化协作测量已成为当前测量领域的研究热点之一。目前,网络化协作测量领域的研究工作大部分停留在理论框架研究和系统仿真上。对于视频图像目标跟踪这类复杂应用,如何协调无线视频图像监测节点信号处理、网络传输和中心节点信号处理的关系仍是一个难题,如何从系统角度出发,有效实现无线视频图像监测节点和中心处理节点的协作,平衡网络能耗和目标跟踪精度的关系都是亟待研究的课题。
发明内容
本发明的目的是提出一种用于无线网络条件下视频图像目标跟踪的多视角协作测量方法,通过多个无线视频图像监测节点的协作,实现对目标位置的准确定位,减少观测干涉,提高目标跟踪的准确性和鲁棒性。
本发明通过以下技术方案实现多视角协作跟踪测量,首先通过动态背景构建方法在单个无线视频图像监测节点中实现目标测量,得到仅含有目标的最小矩形边界;然后通过节点间的协作,采用渐进分布式数据融合方法,融合各无线视频图像监测节点的测量结果,实现对移动目标的协作式定位测量,在协作过程中综合采用了基于能量熵和马氏距离的能耗、剩余能量、信息有效性、节点特性、信息反馈等多参数评价方法;如进行多目标监测,则还需要在融合定位之前对各节点多目标测量信号进行基于最优似然估计的数据关联;完成目标定位后,采用无迹卡尔曼滤波和最优似然估计方法实现对多移动目标的定位跟踪和数据关联,以获得多目标运动轨迹。
以下对本发明方法作进一步说明,具体步骤如下:
(1)基于动态背景构建的目标测量:动态背景构建过程主要包含两个阶段,首先采用基于像素的中值滤波方法,通过多帧连续识别区分图像中的静态像素点和动态像素点,并采用静态像素点初始化背景模型;然后在监测过程中,通过对实际图像序列的分析,从像素和对象两个层次更新背景模型参数,以解决光照和背景物体的变化对背景模型造成的影响。获得当前时刻的动态背景图像后再将原图像减去图像背景,则可获得包含目标的前景图像。
(2)多视角协作融合目标定位:在单个无线视频图像监测节点完成基于动态背景构建的目标测量后,即可获得包含移动目标的最小矩形边界。假设目标位置的测量不确定度可采用2维Gaussian分布表示,则可将各无线视频图像监测节点从不同视角测得的目标位置概率分布映射为最小矩形边界中的概率分布。通过融合投影在目标运动平面上的多视角目标位置概率分布结果,即可获得目标在运动平面上实际位置的概率分布。若各节点工作正常,融合后的概率分布精度将高于或等于最精确的节点精度;但若部分节点失效,或在节点的对应视角中目标被遮挡,则这些节点的目标方位信息则不能用于融合。
多视角测量信息融合由中心处理节点发起,中心处理节点根据评价参数选择某个节点作为激活节点,向其传递测量指令;然后该节点根据当前节点状况,动态选择下一激活节点,并将本节点获取的初步处理信息传递给新的激活节点。该节点将接收到的信息与自身决策信息融合得到不完全融合结果后再次选择新激活节点,并将不完全融合结果传递给该节点。如此不断循环节点选择和渐进融合过程直至结果满足精度要求,最后将融合结果传递至中心处理节点。由于实际测量过程中,处于不同视角的无线视频图像监测节点所能获得的目标运动信息质量不同,为平衡无线视频图像监测网络的跟踪性能和能耗,多视角协作融合目标定位方法在选择激活节点时,综合考虑了网络状态、各节点工作状态、节点位置、节点剩余能量、节点测量能力和预测的节点测量信息有效性等因素。
(3)目标跟踪与预测:当目标定位完成后,中心处理节点采用无迹卡尔曼滤波方法根据定位信息实现目标跟踪与预测。无迹卡尔曼滤波方法建立在无迹变换理论基础上,通过确定地选取少量样本(Sigma点)描述随机变量分布,对各样本进行非线性变换,计算样本均值和方差,作为实际随机变量通过非线性系统后均值和方差的近似值。通过对噪声均值和方差的精确估计,无迹卡尔曼滤波能够有效地对目标运动进行跟踪与预测。
(4)多目标跟踪数据关联:由于复杂环境中,多目标测量信号经常出现不同程度的交叠与重合,使目标跟踪难度加大,应采用数据关联技术确定各测量值与各跟踪轨迹间的对应关系,实现多目标定位与跟踪。在多视角协作融合定位过程中,根据前一时刻的无迹卡尔曼滤波目标跟踪和预测结果,通过最近邻法实现测量结果和轨迹间的最大似然关联。
本发明同传统的单视角多目标跟踪方法相比,通过采用多视角跟踪测量扩大跟踪范围,减少观测干涉,提高目标跟踪的准确性和鲁棒性;同时,各无线视频图像监测节点间的协作通过采用渐进式数据融合方法,平衡了目标跟踪精度和网络能耗,避免了不必要地数据传递。与集中式数据融合方法相比,本发明具有能耗低、网络延迟少、定位精度高等特点,可以满足地形复杂、环境恶劣条件下的应用需求,可广泛应用于各类军、民用系统,具有广阔的市场前景和应用价值。
附图说明
图1为无线网络视频图像多视角协作目标跟踪测量方法的系统框图;
图2为单视角目标测量结果;
其中图(a)是动态构建的单视角背景;图(b)是待分析的单视角测量前景;图(c)是去除背景后得到的目标测量二值结果;
图3为单视角目标位置测量不确定度的2维Gaussian分布示意;
图4为多视角融合定位方法的基本原理;
图5为基于目标跟踪与预测的最近邻法多目标跟踪数据关联基本原理;
图6为验证系统的布置图;
图7为多视角目标测量结果;
其中,图(a)~图(d)分别为4个不同无线视频图像监测节点的多目标检测结果;
图8为渐进分布式多视角协作融合多目标跟踪结果。
具体实施方式
以下结合附图对本发明的实施方式作进一步描述。
如图1所示,无线网络视频图像多视角协作目标跟踪测量方法首先在各无线视频图像监测节点中通过动态背景构建方法实现目标测量,得到仅含有目标的最小矩形边界;然后通过节点间的协作,采用渐进分布式数据融合方法,融合各无线视频图像监测节点的测量结果,实现对移动目标的协作式定位测量;如进行多目标监测,则还需要在融合定位之前对各节点多目标测量信号进行基于最优似然估计的数据关联;完成目标定位后,采用无迹卡尔曼滤波和最优似然估计方法实现对多移动目标的定位跟踪和数据关联,以获得多目标运动轨迹。各部分具体实施细节如下:
1、基于动态背景构建的目标测量
动态背景构建方法主要包含两个阶段:初始化背景模型和更新背景模型参数。在初始化背景模型阶段,首先采用基于像素的中值滤波方法通过多帧连续识别区分图像中的静态像素点和动态像素点;然后采用静态像素点初始化背景模型。假设Vi(x)为第i帧图像中像素点x的亮度值,σ(x)和λ(x)为像素点x在所有N帧连续图像中的标准差和均值,则像素点x的初始背景模型构建如下:
(1)
其中,m(x)代表图像序列{Vi},i=1,KN中所有图像像素点x的亮度最小值,n(x)代表图像序列{Vi},i=1,KN中所有图像像素点x的亮度最大值,d(x)代表图像序列{Vi},i=1,KN中所有相邻两幅图像像素点x的亮度差值的绝对值最大值。
目标测量过程事实上就是从图像序列中区分前景目标和背景图像的过程,也就是区分图像序列中各像素点属于前景像素和背景像素的过程。其中,前景像素即指该像素点对应的像素信息在当前的背景模型下被判定属于前景目标;背景像素则指该像素点对应的像素信息在当前的背景模型下被判定属于背景图像。理论上,在构建背景模型后,通过当前图像和背景模型的差值比较即可获得前景目标的分布区域。然而,监测过程中,光照的影响和背景物体的变化将改变背景模型,将影响前景像素和背景像素的区分和识别。动态背景构建方法分别采用基于像素和基于对象的更新方法解决光照和物体变化的影响。跟踪过程中,通过构建背景变化图决定是否更新背景模型。背景变化图包含三个主要部分:检测图(gS),运动图(mS)和历史信息图(hS),三类图的定义方式如下:
其中,I(x,t)代表图像序列在t时刻像素点x的亮度值。N为图像序列所包含的图像数量。跟踪过程中,由前景像素(mf(x),nf(x),df(x))、背景像素(bb(x),nb(x),db(x))和当前背景模型信息(mc(x),nc(x),dc(x))构建新背景模型信息:
其中,参数k1和k2通常分别设为0.8和1。N为图像序列所包含的图像数量。
如背景光照突然发生变化,则目标检测过程将出现错误。因此,当图像的80%像素被检测为前景像素时,动态背景构建方法将停止背景更新,并重新构建新的背景模型。完成背景模型构建后,再通过各像素点的最小像素值m(x)、最大像素值n(x)和最大帧间差dμ提取前景像素:
其中,It为当前图像信息,帧间差参数k3取值为2。采用动态背景构建方法进行目标检测的结果如图2所示。
2、多视角协作融合目标定位
多视角融合定位是由各无线视频图像监测节点完成不同视角的图像采集和目标测量,由中心处理节点融合不同视角方位信息的目标定位方法。如图3所示,假设目标位置的测量不确定度可采用2维Gaussian分布表示。则多视角融合方法将各节点的2维Gaussian分布映射为相应目标区域内的概率分布,然后融合映射后的概率分布获取目标位置的分布结果,相关原理如图4所示:
其中,X为目标位置随机变量,P(X|Zi)代表节点i测得的Gaussian分布,P(Zi)为相关系数,此处为目标与节点距离的倒数,ξ是归一化算子。X的数学期望即为目标位置的估计结果:
由(7)式可知,若各节点工作正常,融合后的概率分布精度将高于或等于最精确的节点精度;但若其中部分节点失效,或在节点的对应视角中目标被遮挡(如图4中的节点4),则这些节点的目标方位信息不能用于融合。针对网络化视频图像测量的特点,可以假设若节点提供的方位信息存在以下任何一种情况则认为该节点信息不可用:不提供方位信息;提供的方位信息与其余方位信息融合后使目标概率分布为零(即无交集);融合后(归一化前)的目标概率分布值偏小(即只有少部分边界区域存在交集)。
对于无线网络化应用而言,网络能耗、网络传输数据量以及网络延时是决定网络化测量的重要因素。传统的集中式数据融合方法,通过将大量原始图像数据传递到中心处理节点中完成数据融合,导致网络中将产生大量通信负担,从而引起无线网络联接的拥塞,增加网络延时。因此,此处采用渐进分布式数据融合方法实现网络化多视角协作融合目标定位。在实际测量中,多视角测量信息融合由中心处理节点发起,并在网络中反复循环激活节点选择和渐进融合过程,直至融合结果满足精度要求,最后将融合结果传递至中心处理节点。激活节点的选择将决定无线视频图像监测网络的融合精度和网络能耗。为平衡融合精度与能耗,在节点选择中采用如下目标函数:
M(Si)=-α·Cost(Si)+(1-α)·Utility(Si) (9)
其中,Si指第i个节点,Cost为能耗参数,Utility是信息有效性参数,α为调节系数。节点选择可定义为如下优化问题:
能耗参数Cost包括三个部分:测量能耗s,通信能耗t和信息能耗f,其中通信能耗占网络总能耗的比例最高。根据Friis自由空间传播模型,在无线通信过程中,节点Sj接收的信号强度Pj,r与节点Si发送的信号强度Pi,t关系为:
其中Git为节点Si发射系数,Gjr为节点Sj的接收系数,λ为无线通信波长,β为系统功耗因子,di,j为节点Si和Sj间的空间距离。由式(11)得知,可采用空间距离的平方作为单位数据传输能耗的评价指标。
另外,根据无线视频图像监测网络应用情况应尽可能平均地消耗各节点能量以延长网络寿命。采用能量熵理论评价节点剩余能量的平均性;熵值越大,则剩余能量分布越平均。当t时刻完成数据传输后,无线视频图像监测网络的剩余能量熵H(Sit)定义如下:
综上,无线视频图像监测网络传输能耗评价参数为:
Cost越大表示信息传输对网络能耗造成的影响越大。
信息有效性参数Utility可用各节点对融合精度的贡献度衡量。实验表明如目标位置的置信状态可用Gaussian分布预测,则采用马氏距离作为评价参数能准确预测节点对当前置信状态更新效果的贡献度大小,由此可得贡献度因子Mahal为:
其中,Psj是节点si的位置,和是目标位置置信状态的均值和协方差。除置信状态概率分布外,观测过程还受节点特性的影响,如节点对不同材料的敏感度、测量范围、测量可靠度等因素。将节点特性对信息有效性造成的影响统一称为特性因子Char。
信息有效性不仅取决于节点和目标,还受环境影响,但由于环境影响难以直接衡量,因此以节点预测结果与融合结果的相似性为置信因子Trust,用于评价环境对节点测量产生的影响,定义如下:
将能耗参数和信息有效性参数带入式(9)可得节点选择的目标函数为:
渐进分布式多视角融合在各节点中不断循环节点选择和渐进融合过程,直至结果满足一定精度要求。由于概率分布越集中表明结果越确定,因此可以将融合结果概率分布的熵作为融合过程中止阈值:
与集中式融合方法相比,渐进分布式融合方法能够根据各节点当前状态动态选择最佳节点序列完成融合,并通过顺序信息传递和渐进信息融合降低网络拥塞,减少能耗和延时。当系统延时低于一个测量周期且跟踪目标移动速度较慢时,由系统延时产生的位置测量误差可以忽略,此时可将顺序信息传输视为同步过程,从而减少融合过程中产生的测量信息序列紊乱现象,提高融合精度。另外,由于渐进分布式融合是动态选择的过程,因此可以有效避免网络故障的影响,从而提高网络的适应性和稳定性。
3.目标跟踪与预测
当目标定位完成后,中心处理节点采用无迹Kalman滤波方法,根据定位信息实现目标跟踪与预测。无迹Kalman滤波建立在无迹变换的基础上,通过确定地选取少量样本(Sigma点)描述随机变量分布,对各样本进行非线性变换,计算样本均值和方差,作为实际随机变量通过非线性系统后均值和方差的近似值。Sigma点和权值的选择方法为:
其中,xi为Sigma点,αk为可调参数,反映样本散布范围大小;为矩阵平方根的第i列。根据Sigma点和权值求解和Pk|k-1,可推得,Sigma点的样本均值和方差均以二次精度逼近状态变量的均值和方差:
4.多目标跟踪数据关联
采用最近邻法实现多目标跟踪数据关联,根据目标跟踪和预测实现测量结果与轨迹间的最大似然关联。其基本原理如图5所示,方位融合的不确定性使测量过程中出现了4个可选位置,根据最优似然估计原则,采用马氏距离方法进行各目标数据关联:
其中Ppred是预测目标位置,和是第i个可选位置概率分布的均值和协方差,N是可选位置数量,最大值为:Nnode×Npartially,其中Nnode是当前节点测量的目标个数,Npartially是不完全融合结果包含的目标个数。
5.验证系统及实验结果
下面通过一些跟踪实例验证无线网络视频图像多视角协作目标跟踪测量方法的有效性。如图6所示,无线网络视频图像多视角协作目标跟踪验证系统,由设置在室内的18个无线视频图像监测节点和1个中心处理节点组成。其中,中心处理节点为一台主频为2GHz的笔记本电脑,无线视频图像监测节点包含一个视角60°、焦距3.6mm、图像采集速率30帧/秒的彩色CMOS图像传感模块和一个热释红外传感模块,图像采集分辨率为160×120像素。同时,无线视频图像监测节点还包含一个中央处理模块,主要由ARM9处理芯片构成,其处理速度为200MHz。
实验中通过动态能量管理策略控制各节点的激活或休眠。目标进入无线视频图像监测网络测量区域后,网络测量频率为10Hz,即每个渐进融合过程的周期为0.1秒,融合图像的时间差距最大值为0.13秒,对于数据融合可认为采集的信息同步。融合过程中传递的数据包大小为1kbytes,包含目标位置预测信息、不完全融合跟踪结果和已传递节点列表,为简化路由,节点间采用单跳方式传递数据包。各节点根据通信时间、测量时间和计算时间估算能耗及剩余能量,并与其他节点共享剩余能量信息,能量信息共享周期为60秒。无线视频图像监测网络MAC层采用CSMA/CA协议,具体网络通信参数设置如表1所示。利用无线视频图像监测网络对2个人的移动进行跟踪,具体场景为:其中一个人将物件放在房间中央后向房间的另一侧移动并隐匿,同时另一人始终坐在房内某位置。
表1无线视频图像监测网络通讯参数设置
信道参数 | 参数值 |
数据率 | 19.2kbps |
基频 | 900MHz |
MAC协议 | CSMA/CA |
带宽 | 7.2MHz |
图7为验证系统中节点N1、N8、N10和N18的多目标检测结果。图8为渐进分布式多视角协作融合多目标跟踪结果。实验结果与实际目标移动一致。实验结果表明渐进分布式多视角协作融合跟踪方法能有效实现多目标的测量和跟踪。
Claims (6)
1.无线网络视频图像多视角协作目标跟踪测量方法,其特征是包括下列步骤:首先通过动态背景构建方法在单个无线视频图像监测节点中实现目标测量,得到仅含有目标的最小矩形边界;然后通过节点间的协作,采用渐进分布式数据融合方法,融合各无线视频图像监测节点的测量结果,实现对移动目标的协作式定位测量,在协作过程中综合采用基于能量熵和马氏距离的能耗、剩余能量、信息有效性、节点特性、信息反馈等多参数评价方法;如进行多目标监测,则还需要在融合定位之前对各节点多目标测量信号进行基于最优似然估计的数据关联;完成目标定位后,采用无迹卡尔曼滤波和最优似然估计方法实现对多移动目标的定位跟踪和数据关联,以获得多目标运动轨迹。
2.根据权利要求1所述的无线网络视频图像多视角协作目标跟踪测量方法,其特征是所述基于动态背景构建的目标测量具体步骤是:动态背景构建过程包含两个阶段,首先采用基于像素的中值滤波方法,通过多帧连续识别区分图像中的静态像素点和动态像素点,并采用静态像素点初始化背景模型;然后在监测过程中,通过对实际图像序列的分析,从像素和对象两个层次更新背景模型参数,以解决光照和背景物体的变化对背景模型造成的影响;获得当前时刻的动态背景图像后再将原图像减去图像背景,则可获得包含目标的前景图像。
3.根据权利要求1所述的无线网络视频图像多视角协作目标跟踪测量方法,其特征是所述多视角协作融合目标定位具体步骤是:在单个无线视频图像监测节点完成基于动态背景构建的目标测量后,即可获得包含移动目标的最小矩形边界,将各无线视频图像监测节点从不同视角测得的目标位置概率分布映射为最小矩形边界中的概率分布,通过融合投影在目标运动平面上的多视角目标位置概率分布结果,即可获得目标在运动平面上实际位置的概率分布。
4.根据权利要求3所述的无线网络视频图像多视角协作目标跟踪测量方法,其特征是多视角测量信息融合由中心处理节点发起,中心处理节点根据评价参数选择某个节点作为激活节点,向其传递测量指令;激活节点根据当前节点状况,动态选择下一激活节点,并将本节点获取的初步处理信息传递给新的激活节点,该节点将接收到的信息与自身决策信息融合得到不完全融合结果后再次选择下一个激活节点,并将不完全融合结果传递给该节点,如此不断循环节点选择和渐进融合过程直至结果满足精度要求,最后将融合结果传递至中心处理节点。
5.根据权利要求1所述的无线网络视频图像多视角协作目标跟踪测量方法,其特征是所述目标跟踪与预测具体步骤是:当目标定位完成后,中心处理节点采用无迹卡尔曼滤波方法根据定位信息实现目标跟踪与预测。
6.根据权利要求1所述的无线网络视频图像多视角协作目标跟踪测量方法,其特征是所述多目标跟踪数据关联具体步骤是:采用数据关联技术确定各测量值与各跟踪轨迹间的对应关系,实现多目标定位与跟踪,在多视角协作融合定位过程中,根据前一时刻的无迹卡尔曼滤波目标跟踪和预测结果,通过最近邻法实现测量结果和轨迹间的最大似然关联。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNA2007101221482A CN101179707A (zh) | 2007-09-21 | 2007-09-21 | 无线网络视频图像多视角协作目标跟踪测量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNA2007101221482A CN101179707A (zh) | 2007-09-21 | 2007-09-21 | 无线网络视频图像多视角协作目标跟踪测量方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN101179707A true CN101179707A (zh) | 2008-05-14 |
Family
ID=39405770
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNA2007101221482A Pending CN101179707A (zh) | 2007-09-21 | 2007-09-21 | 无线网络视频图像多视角协作目标跟踪测量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101179707A (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102289822A (zh) * | 2011-09-09 | 2011-12-21 | 南京大学 | 一种多摄像机协同跟踪运动目标的方法 |
CN103105611A (zh) * | 2013-01-16 | 2013-05-15 | 广东工业大学 | 一种分布式多传感器智能信息融合方法 |
CN103324618A (zh) * | 2012-03-20 | 2013-09-25 | 澳门大学 | 一种基于电子印迹的视频检测方法及系统 |
CN103903248A (zh) * | 2012-12-28 | 2014-07-02 | 重庆凯泽科技有限公司 | 一种基于双目视觉立体跟踪算法 |
CN104539909A (zh) * | 2015-01-15 | 2015-04-22 | 安徽大学 | 一种视频监控方法及视频监控服务器 |
CN105050097A (zh) * | 2015-06-12 | 2015-11-11 | 北京工商大学 | 一种图像传感器网络优化部署方法 |
WO2016183954A1 (zh) * | 2015-05-21 | 2016-11-24 | 中兴通讯股份有限公司 | 运动轨迹的计算方法及装置、终端 |
CN106447699A (zh) * | 2016-10-14 | 2017-02-22 | 中国科学院自动化研究所 | 基于卡尔曼滤波的高铁接触网目标检测与跟踪方法 |
CN107014375A (zh) * | 2017-02-22 | 2017-08-04 | 上海谦尊升网络科技有限公司 | 超低部署的室内定位系统及方法 |
CN107403222A (zh) * | 2017-07-19 | 2017-11-28 | 燕山大学 | 一种基于辅助更新模型和有效性检验的运动跟踪方法 |
CN107424141A (zh) * | 2017-03-26 | 2017-12-01 | 天津大学 | 一种基于概率块的面部图像质量评估方法 |
CN108871337A (zh) * | 2018-06-21 | 2018-11-23 | 浙江工业大学 | 基于多视觉传感器分布式信息融合的遮挡情况下目标位姿估计方法 |
CN110070565A (zh) * | 2019-03-12 | 2019-07-30 | 杭州电子科技大学 | 一种基于图像叠加的船舶轨迹预测方法 |
CN114663473A (zh) * | 2022-03-02 | 2022-06-24 | 国网浙江省电力有限公司电力科学研究院 | 基于多视角信息融合的人员目标定位与追踪方法及系统 |
CN116679026A (zh) * | 2023-06-27 | 2023-09-01 | 江南大学 | 自适应无偏有限脉冲响应滤波的污水溶解氧浓度估计方法 |
-
2007
- 2007-09-21 CN CNA2007101221482A patent/CN101179707A/zh active Pending
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102289822A (zh) * | 2011-09-09 | 2011-12-21 | 南京大学 | 一种多摄像机协同跟踪运动目标的方法 |
CN103324618A (zh) * | 2012-03-20 | 2013-09-25 | 澳门大学 | 一种基于电子印迹的视频检测方法及系统 |
CN103324618B (zh) * | 2012-03-20 | 2016-08-03 | 澳门大学 | 一种基于电子印迹的视频检测方法及系统 |
CN103903248A (zh) * | 2012-12-28 | 2014-07-02 | 重庆凯泽科技有限公司 | 一种基于双目视觉立体跟踪算法 |
CN103105611A (zh) * | 2013-01-16 | 2013-05-15 | 广东工业大学 | 一种分布式多传感器智能信息融合方法 |
CN103105611B (zh) * | 2013-01-16 | 2016-01-20 | 广东工业大学 | 一种分布式多传感器智能信息融合方法 |
CN104539909A (zh) * | 2015-01-15 | 2015-04-22 | 安徽大学 | 一种视频监控方法及视频监控服务器 |
WO2016183954A1 (zh) * | 2015-05-21 | 2016-11-24 | 中兴通讯股份有限公司 | 运动轨迹的计算方法及装置、终端 |
CN105050097B (zh) * | 2015-06-12 | 2018-04-24 | 北京工商大学 | 一种图像传感器网络优化部署方法 |
CN105050097A (zh) * | 2015-06-12 | 2015-11-11 | 北京工商大学 | 一种图像传感器网络优化部署方法 |
CN106447699B (zh) * | 2016-10-14 | 2019-07-19 | 中国科学院自动化研究所 | 基于卡尔曼滤波的高铁接触网目标检测与跟踪方法 |
CN106447699A (zh) * | 2016-10-14 | 2017-02-22 | 中国科学院自动化研究所 | 基于卡尔曼滤波的高铁接触网目标检测与跟踪方法 |
CN107014375A (zh) * | 2017-02-22 | 2017-08-04 | 上海谦尊升网络科技有限公司 | 超低部署的室内定位系统及方法 |
CN107014375B (zh) * | 2017-02-22 | 2020-05-22 | 上海谦尊升网络科技有限公司 | 超低部署的室内定位系统及方法 |
CN107424141A (zh) * | 2017-03-26 | 2017-12-01 | 天津大学 | 一种基于概率块的面部图像质量评估方法 |
CN107403222A (zh) * | 2017-07-19 | 2017-11-28 | 燕山大学 | 一种基于辅助更新模型和有效性检验的运动跟踪方法 |
CN108871337A (zh) * | 2018-06-21 | 2018-11-23 | 浙江工业大学 | 基于多视觉传感器分布式信息融合的遮挡情况下目标位姿估计方法 |
CN108871337B (zh) * | 2018-06-21 | 2021-01-01 | 浙江工业大学 | 基于多视觉传感器分布式信息融合的遮挡情况下目标位姿估计方法 |
CN110070565A (zh) * | 2019-03-12 | 2019-07-30 | 杭州电子科技大学 | 一种基于图像叠加的船舶轨迹预测方法 |
CN110070565B (zh) * | 2019-03-12 | 2021-06-01 | 杭州电子科技大学 | 一种基于图像叠加的船舶轨迹预测方法 |
CN114663473A (zh) * | 2022-03-02 | 2022-06-24 | 国网浙江省电力有限公司电力科学研究院 | 基于多视角信息融合的人员目标定位与追踪方法及系统 |
CN116679026A (zh) * | 2023-06-27 | 2023-09-01 | 江南大学 | 自适应无偏有限脉冲响应滤波的污水溶解氧浓度估计方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101179707A (zh) | 无线网络视频图像多视角协作目标跟踪测量方法 | |
Li et al. | Toward location-enabled IoT (LE-IoT): IoT positioning techniques, error sources, and error mitigation | |
CN112533163B (zh) | 基于NB-IoT改进的融合超宽带和蓝牙的室内定位方法 | |
Depatla et al. | Crowd counting through walls using WiFi | |
CN108646215B (zh) | 一种基于超宽带的自动跟随快速定位方法 | |
CN101547048B (zh) | 基于无线传感网的室内定位方法 | |
CN109275095B (zh) | 一种基于蓝牙的室内定位系统、定位设备和定位方法 | |
Bocca et al. | Multiple target tracking with RF sensor networks | |
CN110244715B (zh) | 一种基于超宽带技术的多移动机器人高精度协同跟踪方法 | |
CN103605110B (zh) | 基于接收信号强度的室内无源目标定位方法 | |
CN106257301B (zh) | 基于统计推断的分布式时空关联模型轨迹跟踪方法 | |
CN110913344A (zh) | 协同目标跟踪系统和方法 | |
Wainer et al. | Machine learning-based indoor localization and occupancy estimation using 5G ultra-dense networks | |
Papaioannou et al. | Tracking people in highly dynamic industrial environments | |
Haute et al. | Comparability of RF-based indoor localisation solutions in heterogeneous environments: an experimental study | |
Jadidi et al. | Gaussian processes online observation classification for RSSI-based low-cost indoor positioning systems | |
Song et al. | Fingerprinting localization method based on toa and particle filtering for mines | |
Zheng et al. | An adaptive framework coping with dynamic target speed for device-free passive localization | |
CN103476110A (zh) | 节点自定位与目标跟踪同时进行的分布式算法 | |
Atashi et al. | Multiple model BLE-based tracking via validation of RSSI fluctuations under different conditions | |
Moradbeikie et al. | A cost-effective LoRaWAN-based IoT localization method using fixed reference nodes and dual-slope path-loss modeling | |
Martín-Gorostiza et al. | Infrared and camera fusion sensor for indoor positioning | |
CN109899932B (zh) | 空调的控制方法和装置 | |
Bertinato et al. | RF localization and tracking of mobile nodes in wireless sensors networks: Architectures, algorithms and experiments | |
Malekzadeh et al. | Gaussian mixture-based indoor localization via Bluetooth low energy sensors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Open date: 20080514 |