CN107833239A - 一种基于加权模型约束的寻优匹配目标跟踪方法 - Google Patents
一种基于加权模型约束的寻优匹配目标跟踪方法 Download PDFInfo
- Publication number
- CN107833239A CN107833239A CN201711029450.3A CN201711029450A CN107833239A CN 107833239 A CN107833239 A CN 107833239A CN 201711029450 A CN201711029450 A CN 201711029450A CN 107833239 A CN107833239 A CN 107833239A
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- frame
- blocks
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/223—Analysis of motion using block-matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于加权模型约束的寻优匹配目标跟踪方法,涉及计算机视觉技术领域。该方法以第一帧图像为训练图像,建立带权目标模型,逐帧读取视频图像,并以前一帧为基础得到当前帧的匹配前景区域,利用双向最优相似匹配方法进行目标检测,得到跟踪结果区域;当帧数大于6时,利用距离决策方法对发生误匹配的情况进行重构;当帧数为5的倍数时,根据当前帧的跟踪结果和当前带权目标模型进行加权融合来更新带权目标模型。本发明的方法用于对视频图像序列进行目标跟踪,能防止目标在发生形变、局部遮挡时因目标特征匹配不完全而导致跟踪偏移问题,并能避免背景信息的干扰,保证匹配到的目标更准确。
Description
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种基于加权模型约束的寻优匹配目标跟踪方法。
背景技术
目标跟踪作为计算机视觉领域内具有代表性的研究课题,融合了多个领域的关键技术,是图像处理中的研究热点。其主要通过摄像机或其他终端设备采集图像或视频信息,经过计算机处理获取相应的场景信息,模拟人类或其他生物的视觉来自主解决问题。目标跟踪主要的任务是对运动目标位置以及运动轨迹的估计,在己知当前时刻的目标运动状态,通过跟踪算法来预测下一时刻目标的运动参数,获得目标的形态、位置、轮廓等信息。然后通过对这些信息进行分析、处理以便于实现对目标识别、检测、分类和跟踪等任务。作为一门综合性较强的研究方向,目标跟踪包含了图像处理、模式识别和人工智能等多方面的技术。随着近些年科学技术的快速发展,现有视频采集设备获取视频能力及计算机处理性能的不断提升,目标跟踪技术也取得很大的进步。
目标跟踪经过多年来的探寻和研究在安全监控、智能交通、人机交互、医学图像处理及军事领域有着广阔的发展前景。而在实际场景中,由于目标形变、遮挡、复杂背景等因素的影响,导致跟踪的准确度不高。因而如何提高跟踪方法的准确率一直是目标跟踪领域的热点问题。
通过对目标的外观特征进行相似性分析,许多研究人员通过建立鲁棒外观模型的匹配方法进行目标的提取、跟踪。近年来,相继出现了许多跟踪方法。例如,Mei等人提出了一种基于稀疏表示分类的跟踪方法,将跟踪问题转化为求解稀疏逼近问题,并根据重构残差的大小确定最终的跟踪结果。但这种方法当跟踪过程中出现相似物体干扰时会产生一定的误差,且跟踪实时性较低。Bao等人对其进行改进,提出一种实时的稀疏表示跟踪方法(L1APG,L1 Tracker Using Accelerated Proximal Gradient),利用多个目标模型结合稀疏表示分类,该方法在维持较高跟踪准确率的情况下,提高了跟踪的实效性。Kalal等人提出一种TLD(Tracking-Learning-Detection)目标跟踪方法,将跟踪、学习和检测过程结合,该方法针对目标移动中出现的局部遮挡和目标形变具有较高的跟踪鲁棒性。Oron等人提出局部无序跟踪(locally orderless tracking),利用超像素分割技术奖目标分为多个超像素块,通过粒子加权的方式对目标进行跟踪。Wang等人将栈式降噪自编码器应用到目标跟踪中,删去了自编码器中的解码部分,将其用softmax分类器替代,实现对目标和背景的分类,并利用神经网络提取目标的深度特征的方式完成对目标的跟踪。Henriques等人提出一种核相关滤波器用于区分目标和背景区域,并选用岭回归模型,引入具有循环结构的模板对其进行傅里叶变换,大幅提升了跟踪的速度和效率。
但上述六种方法存在以下几点问题:
复杂背景问题:基于模型匹配的目标跟踪方法通过对模型中的目标进行特征提取和特征分析,并利用匹配技术在图像中搜寻、确定目标。然而在实际跟踪中,图像包含的背景信息非常复杂,一些背景信息与前景目标信息极为相似,从特征角度分析一般很难区分,在利用特定的目标选取方式建立目标模板时,通常会造成跟踪漂移甚至跟错目标的情况,这也加大了跟踪目标的难度。
目标形变问题:实际跟踪时目标通常为非刚性物体,随着跟踪的不断深入目标自身形态发生变化,目标跟踪以目标的识别和匹配为前提,当目标处于形变状态时能否重新识别目标是一个需要解决的问题。若识别失败则很难再准确匹配目标特征,直接导致目标丢失。一般来说,目标的形变较为复杂、没有规律性,给跟踪带来一定程度的困难。
目标遮挡问题:在目标跟踪的过程中,当目标受到局部、持续遮挡时,如果不及时地进行模型更新,很容易导致跟踪漂移。甚至在实际跟踪中,若存在目标与遮挡物的表观特征相似情况,跟踪方法会将遮挡物同样作为目标被标定,当遮挡物运动远离目标时,跟踪方法往往会丢失目标。
发明内容
本发明要解决的技术问题是针对上述现有技术的不足,提供一种基于加权模型约束的寻优匹配目标跟踪方法,用于对视频图像序列进行目标跟踪,能防止目标在发生形变、局部遮挡时因目标特征匹配不完全而导致跟踪偏移问题,并能避免背景信息的干扰,保证匹配到的目标更准确。
为解决上述技术问题,本发明所采取的技术方案是:
一种基于加权模型约束的寻优匹配目标跟踪方法,包括以下步骤:
步骤1:读取待跟踪的视频图像序列,将第一帧待跟踪视频图像序列作为训练图像;
步骤2:利用加权分割理论建立待跟踪视频图像的带权目标模型T′,具体方法如下:
步骤2.1:标定出当前第一帧视频图像中的初始目标区域T;
步骤2.2:将目标区域的长、宽分别进行n等分,连接各个分割点得到n2个大小相同的局部特征块,第u个局部特征块为Pu,u=1,2,…,n2;
步骤2.3:根据局部特征块所在位置区域,将n2个局部特征块划分为h个分割层,根据局部特征块所在的不同分割层,将局部特征块赋予不同权值,得到带权目标模型T′;
步骤3:读取第二帧待跟踪视频图像序列作为当前帧图像;
步骤4:在当前帧中,以第一帧圈定初始目标区域T的中心坐标为当前帧的中心点,以第一帧初始目标区域对角线的1.5倍进行扩展作为当前帧的对角线长度,得到当前帧的匹配前景区域;
步骤5:利用双向最优相似匹配方法进行目标检测,通过计算当前帧前景区域中的局部特征块与建立的带权目标模型T′之间的相似性,确定匹配到的跟踪目标,具体方法为:
步骤5.1:将当前帧的匹配前景区域分割成M个与带权目标模型T′中的局部特征块大小相同的局部特征块,当前帧的匹配前景区域分割的第m个局部特征块为Qtm,t表示当前图像的帧数,m=1,2,…,M;
步骤5.2:选择带权目标模型T′中的每一个局部特征块Pu={pui},与当前帧的匹配前景区域中的每个局部特征块Qtm进行双向最优相似匹配(optimal similarity matching,简称OSM),获得当前帧的匹配前景区域中的最优匹配块P′tu={p′tui},其中,i∈1,…,N,N表示最优匹配块P′tu中像素的总个数,pui、p′tui分别为第u个局部特征块Pu和当前帧第u个最优匹配块P′tu中的第i个像素点;
步骤5.3:重复步骤5.2,直到带权目标模型T′中的所有n2个局部特征块匹配完全;
步骤5.4:整合匹配到的所有n2个最优匹配块P′tu,从而得到当前帧匹配到的跟踪结果区域;
步骤6:判断当前图像的帧数t是否小于3;若是,则执行步骤7;否则,执行步骤8;
步骤7:读取下一帧待跟踪视频图像序列作为当前帧图像;在当前帧中,以前一帧圈定跟踪结果区域的中心坐标为当前帧的中心点,以前一帧圈定跟踪结果区域对角线的1.5倍进行扩展作为当前帧的对角线长度,得到当前帧的匹配前景区域,然后返回步骤5;
步骤8:判断当前图像的帧数t是否大于6,若是,则执行步骤9,否则,执行步骤12;
步骤9:计算当前帧匹配到的各个最优匹配块P′tu与前一帧匹配到的各个最优匹配块P′(t-1)u之间的中心距离dtu,如下式所示,
其中,(xtu,ytu)为当前帧匹配到的第u个最优匹配块P′tu的中心点坐标,(x(t-1)u,y(t-1)u)为前一帧匹配到的第u个最优匹配块P′(t-1)u的中心点坐标;
步骤10:计算当前帧所有n2个最优匹配块与前一帧匹配到的各个最优匹配块之间的平均中心距离如下式所示,
步骤11:利用距离决策方法判断当前帧各个最优匹配块是否发生误匹配,并根据其遮挡情况,重新构造当前帧的匹配目标区域;
步骤12:根据当前图像的帧数判断是否需要对当前待跟踪视频图像的带权目标模型T′进行更新,具体方法为:
步骤12.1:判断当前图像的帧数t是否为5的倍数,若是,则更新当前待跟踪视频图像的带权目标模型,执行步骤12.2,否则,执行步骤12.3;
步骤12.2:根据当前帧的跟踪结果和当前带权目标模型的目标特征分布进行加权融合,得到待跟踪视频图像更新后的带权目标模型的目标特征分布,更新公式如下式所示,
T′update=aQt+(1-a)T′;
其中,Qt为当前帧跟踪结果中的目标特征分布,T′表示当前待跟踪视频图像的带权目标模型的特征分布,T′update为更新后的带权目标模型的特征分布,a为更新权重;
步骤12.3:将当前待跟踪视频图像的带权目标模型作为待跟踪视频图像更新后的带权目标模型;
步骤13:判断当前图像帧数t是否达到待跟踪视频图像序列的总个数tn,若是,则得到待跟踪视频图像序列的跟踪结果,否则,返回步骤7,进行下一帧视频图像的处理。
所述步骤2.3的具体方法为:
步骤2.3.1:根据局部特征块所在位置区域,将n2个局部特征块划分为h个分割层,排列方式为最外层为第一层,最内层(即中心局部块)为第h层;
步骤2.3.2:根据局部特征块所在的不同分割层,将局部特征块赋予不同权值,权值分配方式为
其中,k表示层数,k=1,2,...,h;h表示总层数,h=3、5或7;pk表示第k层局部特征块中的像素点;表示第k层局部特征块中的像素点所分配的权值;
步骤2.3.3:将初始目标模型T加权,构造带权目标模型T′,T′=C×T,
所述步骤5.2的具体匹配方法为:
步骤5.2.1:计算每个局部特征块Pu与当前帧的匹配前景区域中的每个局部特征块Qtm={qtmj}之间的最优相似距离,如下式所示,
其中,d(pui,qtmj)表示第u个局部特征块Pu中的第i个像素点pui与当前帧的匹配前景区域中的第m个局部特征块Qtm中的第j个像素点qtmj之间的最优相似距离,j∈1,…,N;A表示颜色特征,即RGB,L表示纹理特征,即LBP;
固定u的值,求第u个局部特征块Pu中的像素点pui与当前帧的匹配前景区域中的所有局部特征块Qtm中的像素点qtmj之间的最优相似距离;然后固定m的值,求所有局部特征块Pu中的像素点pui与当前帧的匹配前景区域中的第m个局部特征块Qtm中的像素点qtmj之间的最优相似距离;
步骤5.2.2:计算集合Pu与Qtm之间的最优匹配对(Optimal Matching Pair,简称OMP),如下式所示,
其中,为像素点pui的权重,
pu、qtm分别表示集合Pu、Qtm中的任意像素点;
步骤5.2.3:计算集合Pu与Qtm之间的最优匹配对期望值EOMP,如下式所示,
其中,pr(Pu)、pr(Qtm)分别表示集合Pu、Qtm的条件概率函数;
步骤5.2.4:计算集合Pu与Qtm之间的最优相似匹配期望值EOSM,如下式所示,
所述步骤11的具体方法为:
步骤11.1:利用距离决策方法判断当前帧各个最优匹配块是否发生误匹配,判断公式如下两式所示:
其中,分别表示第t、t-1、t-2、t-3帧的最优匹配块与前一帧最优匹配块间的平均中心距离,表示连续相邻5帧的平均中心距离;表示距离误差范围,Dt表示决策范围;
若中心距离dtu不在决策范围Dt内,则认为相应的最优匹配块P′tu发生误匹配,执行步骤11.2;否则,认为相应的最优匹配块P′tu没有发生误匹配,执行步骤11.3;
步骤11.2:舍弃中心距离为dtu的最优匹配块P′tu,同时,利用平均中心距离估计被舍弃的最优匹配块位置,并与中心距离在决策范围Dt内的其他最优匹配块相结合来确定当前帧的跟踪结果;
步骤11.3:将当前帧的匹配结果作为当前帧的跟踪结果。
采用上述技术方案所产生的有益效果在于:本发明提供的一种基于加权模型约束的寻优匹配目标跟踪方法,通过建立带权局部特征块组成的目标模型,防止目标在发生形变、局部遮挡时因目标特征匹配不完全而导致跟踪偏移问题。在模型匹配过程中,先对图像帧中的前景信息进行估计判别,约束相似匹配过程,只在前景区域匹配,避免背景信息的干扰,保证匹配到的目标更准确。然后采用双向最优相似匹配,即将匹配到的结果作为目标特征对目标模型特征进行校验,使得特征匹配结果更具鲁棒性。在模型更新中提出一种在线模型更新算法,引入距离决策判定,保证目标外观模型的准确性,使得模型对目标的描述更充分。
附图说明
图1为本发明实施例提供的基于加权模型约束的寻优匹配目标跟踪方法的流程图;
图2为本发明实施例提供的待跟踪视频图像;
图3为本发明实施例提供的建立带权目标模型过程示意图;其中,(a)为初始目标模型,(b)为分割层划分,(c)为权值分配,(d)为带权目标模型;
图4为本发明实施例提供的当前跟踪图像的前景区域划分效果图;
图5为本发明实施例提供的当前帧匹配到跟踪结果区域的方法流程图;
图6为本发明实施例提供的最优相似匹配的效果图;
图7为本发明实施例提供的当前第t帧图像的距离决策判定示意图;
图8为本发明实施例提供的本发明方法跟踪在基准库中与其他跟踪方法在时间鲁棒性上的对比示意图;
图9为本发明实施例提供的本发明方法跟踪在基准库中与其他跟踪方法在空间鲁棒性上的对比示意图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
一种基于加权模型约束的寻优匹配目标跟踪方法,如图1所示,本实施例的方法具体如下所述。
步骤1:读取待跟踪视频图像序列,将第一帧待跟踪视频图像序列作为训练图像。
本实施例中,读取待跟踪视频图像如图2所示。
步骤2:利用加权分割理论建立待跟踪视频图像的带权目标模型T′,具体方法如下:
步骤2.1:标定出当前第一帧视频图像中的初始目标区域T;
步骤2.2:将目标区域的长、宽分别进行n等分,连接各个分割点得到n2个大小相同的局部特征块,第u个局部特征块为Pu,u=1,2,…,n2;在本实施例中,n=5,分割为25个局部特征块;
步骤2.3:根据局部特征块所在位置区域,将n2个局部特征块划分为h个分割层,根据局部特征块所在的不同分割层,将局部特征块赋予不同权值,得到带权目标模型,具体方法为:
步骤2.3.1:根据局部特征块所在位置区域,将n2个局部特征块划分为h个分割层,排列方式为最外层为第一层,最内层(即中心局部块)为第h层;
步骤2.3.2:根据局部特征块所在的不同分割层,将局部特征块赋予不同权值,权值分配方式为
其中,k表示层数,k=1,2,...,h;h表示总层数,h=3、5或7;pk表示第k层局部特征块中的像素点;表示第k层局部特征块中的像素点所分配的权值;
步骤2.3.3:将初始目标模型T加权,构造带权目标模型T′,T′=C×T,
本实施例中,得到待跟踪视频图像的初始带权目标模型T′如图3所示。
步骤3:读取第二帧待跟踪视频图像序列作为当前帧图像。
步骤4:在当前帧中,以第一帧圈定初始目标区域T的中心坐标为当前帧的中心点,以第一帧初始目标区域对角线的1.5倍进行扩展作为当前帧的对角线长度,得到当前帧的匹配前景区域。本实施例中得到的当前帧的匹配前景区域如图4所示。
步骤5:利用双向最优相似匹配方法进行目标检测,通过计算当前帧前景区域中的局部特征块与建立的带权目标模型T′之间的相似性,确定匹配到的跟踪目标,如图5所示,具体方法为:
步骤5.1:将当前帧的匹配前景区域分割成M个与带权目标模型T′中的局部特征块大小相同的局部特征块,当前帧的匹配前景区域分割的第m个局部特征块为Qtm,t表示当前图像的帧数,m=1,2,…,M;
步骤5.2:选择带权目标模型T′中的每一个局部特征块Pu={pui},与当前帧的匹配前景区域中的每个局部特征块Qtm进行双向最优相似匹配(optimal similarity matching,简称OSM),获得当前帧的匹配前景区域中的最优匹配块P′tu={p′tui},其中,i∈1,…,N,N表示最优匹配块P′tu中像素的总个数,pui、p′tui分别为第u个局部特征块Pu和当前帧第u个最优匹配块P′tu中的第i个像素点,具体匹配方法为:
步骤5.2.1:计算每个局部特征块Pu与当前帧的匹配前景区域中的每个局部特征块Qtm={qtmj}之间的最优相似距离,如下式所示;
其中,d(pui,qtmj)表示第u个局部特征块Pu中的第i个像素点pui与当前帧的匹配前景区域中的第m个局部特征块Qtm中的第j个像素点qtmj之间的最优相似距离,j∈1,…,N;A表示颜色特征,即RGB,L表示纹理特征,即LBP;
固定u的值,求第u个局部特征块Pu中的像素点pui与当前帧的匹配前景区域中的所有局部特征块Qtm中的像素点qtmj之间的最优相似距离;然后固定m的值,求所有局部特征块Pu中的像素点pui与当前帧的匹配前景区域中的第m个局部特征块Qtm中的像素点qtmj之间的最优相似距离;
步骤5.2.2:计算集合Pu与Qtm之间的最优匹配对(Optimal Matching Pair,简称OMP),如下式所示,
其中,为像素点pui的权重,
pu、qtm分别表示集合Pu、Qtm中的任意像素点;
步骤5.2.3:计算集合Pu与Qtm之间的最优匹配对期望值EOMP,如下式所示,
其中,pr(Pu)、pr(Qtm)分别表示集合Pu、Qtm的条件概率函数;
步骤5.2.4:计算集合Pu与Qtm之间的最优相似匹配期望值EOSM,如下式所示,
步骤5.3:重复步骤5.2,直到带权目标模型T′中的所有n2个局部特征块匹配完全;
步骤5.4:整合匹配到的所有n2个最优匹配块P′tu,从而得到当前帧匹配到的跟踪结果区域。
本实施例中,得到待跟踪视频图像的最优相似匹配的效果如图6所示。
步骤6:判断当前图像的帧数t是否小于3;若是,则执行步骤7;否则,执行步骤8。
步骤7:读取下一帧待跟踪视频图像序列作为当前帧图像;在当前帧中,以前一帧圈定跟踪结果区域的中心坐标为当前帧的中心点,以前一帧圈定跟踪结果区域对角线的1.5倍进行扩展作为当前帧的对角线长度,得到当前帧的匹配前景区域,然后返回步骤5。
步骤8:判断当前图像的帧数t是否大于6,若是,则执行步骤9,否则,执行步骤12。
步骤9:计算当前帧匹配到的各个最优匹配块P′tu与前一帧匹配到的各个最优匹配块P′(t-1)u之间的中心距离dtu,如下式所示,
其中,(xtu,ytu)为当前帧匹配到的第u个最优匹配块P′tu的中心点坐标,(x(t-1)u,y(t-1)u)为前一帧匹配到的第u个最优匹配块P′(t-1)u的中心点坐标。
步骤10:计算当前帧所有n2个最优匹配块与前一帧匹配到的各个最优匹配块之间的平均中心距离如下式所示,
步骤11:利用距离决策方法判断当前帧各个最优匹配块是否发生误匹配,并根据其遮挡情况,重新构造当前帧的匹配目标区域,具体方法为:
步骤11.1:利用距离决策方法判断当前帧各个最优匹配块是否发生误匹配,判断公式如下两式所示:
其中,分别表示第t、t-1、t-2、t-3帧的最优匹配块与前一帧最优匹配块间的平均中心距离,表示连续相邻5帧的平均中心距离;表示距离误差范围,Dt表示决策范围;
若中心距离dtu不在决策范围Dt内,则认为相应的最优匹配块P′tu发生误匹配,执行步骤11.2;否则,认为相应的最优匹配块P′tu没有发生误匹配,执行步骤11.3;
步骤11.2:舍弃中心距离为dtu的最优匹配块P′tu,同时,利用平均中心距离估计被舍弃的最优匹配块位置,并与中心距离在决策范围Dt内的其他最优匹配块相结合来确定当前帧的跟踪结果;
步骤11.3:将当前帧的匹配结果作为当前帧的跟踪结果。
本实施例中,当前第t帧图像的距离决策判定示意图如图7所示。
步骤12:根据当前图像的帧数判断是否需要对当前待跟踪视频图像的带权目标模型T′进行更新,具体方法为:
步骤12.1:判断当前图像的帧数是否为5的倍数,若是,则更新当前待跟踪视频图像的带权目标模型,执行步骤12.2,否则,执行步骤12.3;
步骤12.2:根据当前帧的跟踪结果和当前带权目标模型的目标特征分布进行加权融合,得到待跟踪视频图像更新后的带权目标模型的目标特征分布,更新公式如下式所示,
T′update=aQt+(1-a)T′;
其中,Qt为当前帧跟踪结果中的目标特征分布,T′表示当前待跟踪视频图像的带权目标模型的特征分布,T′update为更新后的带权目标模型的特征分布,a∈[0.8,0.95]为更新权重;
步骤12.3:将当前待跟踪视频图像的带权目标模型作为待跟踪视频图像更新后的带权目标模型。
通过步骤12,使待跟踪的视频图像的每5帧更新一次带权目标模型,保证跟踪的准确性。
步骤13:判断当前图像帧数t是否达到待跟踪视频图像序列的总个数tn,若是,则得到待跟踪视频图像序列的跟踪结果,否则,返回步骤7,进行下一帧视频图像的处理。
本实施例中,在基准库中与其他成熟跟踪方法在时间鲁棒性、空间鲁棒性上的进行对比,对比结果如图8和图9所示。
为进一步证明本发明的有效性,分别与6种国内外较成熟跟踪方法在10组视频序列进行对比实验。10个图像序列分别是Girl、Deer、Lemming、Woman、Bolt、CarDark、David1、David2、Singer1以及Basketball,这些视频序列基本涵盖了光照变化、部分遮挡、目标形变、复杂背景等影响因素。6个跟踪算法分别为L1APG(L1 Tracker Using AcceleratedProximal Gradient Approach),TLD(Tracking-learning-detection),LOT(Localorderless tracker),VTD(visual tracking decomposition),SCM(sparsity-basedcollaborative model),FRAG(fragments-based tracking)。7种跟踪方法在10个图像序列上平均中心误差见表1,7种跟踪方法在10个图像序列上的跟踪重叠率见表2。
表1不同跟踪方法的平均中心误差
表2不同跟踪方法的跟踪重叠率
图像序列 | FRAG | SCM | VTD | L1APG | TLD | LOT | 本发明方法 |
Girl | 0.41 | 0.74 | 0.69 | 0.39 | 0.56 | 0.43 | 0.70 |
Deer | 0.11 | 0.47 | 0.63 | 0.45 | 0.41 | 0.50 | 0.62 |
Football | 0.63 | 0.71 | 0.65 | 0.68 | 0.65 | 0.73 | 0.72 |
Lemming | 0.43 | 0.53 | 0.57 | 0.39 | 0.77 | 0.83 | 0.87 |
Woman | 0.14 | 0.59 | 0.15 | 0.15 | 0.12 | 0.14 | 0.59 |
Bolt | 0.47 | 0.76 | 0.55 | 0.23 | 0.16 | 0.72 | 0.78 |
David1 | 0.23 | 0.82 | 0.53 | 0.80 | 0.79 | 0.55 | 0.76 |
David2 | 0.21 | 0.69 | 0.73 | 0.74 | 0.69 | 0.73 | 0.65 |
Singer1 | 0.55 | 0.73 | 0.74 | 0.57 | 0.69 | 0.72 | 0.75 |
Basketball | 0.63 | 0.17 | 0.67 | 0.25 | 0.21 | 0.14 | 0.69 |
平均值 | 0.38 | 0.62 | 0.59 | 0.47 | 0.51 | 0.55 | 0.71 |
从表1和表2中的实验统计结果可以看出,在大部分实验序列中,本发明方法优于同类方法(L1APG、TLD和LOT)。不仅如此,与其他3种跟踪方法相比,本发明方法也具有较大优势,而且在所有图像序列上的平均中心误差及跟踪重叠率均是优秀的。这表明本发明方法是合理有效的,达到甚至超过了当前主流方法的跟踪效果,匹配到的目标更准确。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明权利要求所限定的范围。
Claims (4)
1.一种基于加权模型约束的寻优匹配目标跟踪方法,其特征在于:包括以下步骤:
步骤1:读取待跟踪的视频图像序列,将第一帧待跟踪视频图像序列作为训练图像;
步骤2:利用加权分割理论建立待跟踪视频图像的带权目标模型T′,具体方法如下:
步骤2.1:标定出当前第一帧视频图像中的初始目标区域T;
步骤2.2:将目标区域的长、宽分别进行n等分,连接各个分割点得到n2个大小相同的局部特征块,第u个局部特征块为Pu,u=1,2,…,n2;
步骤2.3:根据局部特征块所在位置区域,将n2个局部特征块划分为h个分割层,根据局部特征块所在的不同分割层,将局部特征块赋予不同权值,得到带权目标模型T′;
步骤3:读取第二帧待跟踪视频图像序列作为当前帧图像;
步骤4:在当前帧中,以第一帧圈定初始目标区域T的中心坐标为当前帧的中心点,以第一帧初始目标区域对角线的1.5倍进行扩展作为当前帧的对角线长度,得到当前帧的匹配前景区域;
步骤5:利用双向最优相似匹配方法进行目标检测,通过计算当前帧前景区域中的局部特征块与建立的带权目标模型T′之间的相似性,确定匹配到的跟踪目标,具体方法为:
步骤5.1:将当前帧的匹配前景区域分割成M个与带权目标模型T′中的局部特征块大小相同的局部特征块,当前帧的匹配前景区域分割的第m个局部特征块为Qtm,t表示当前图像的帧数,m=1,2,…,M;
步骤5.2:选择带权目标模型T′中的每一个局部特征块Pu={pui},与当前帧的匹配前景区域中的每个局部特征块Qtm进行双向最优相似匹配(optimal similarity matching,简称OSM),获得当前帧的匹配前景区域中的最优匹配块P′tu={p′tui},其中,i∈1,…,N,N表示最优匹配块P′tu中像素的总个数,pui、p′tui分别为第u个局部特征块Pu和当前帧第u个最优匹配块P′tu中的第i个像素点;
步骤5.3:重复步骤5.2,直到带权目标模型T′中的所有n2个局部特征块匹配完全;
步骤5.4:整合匹配到的所有n2个最优匹配块P′tu,从而得到当前帧匹配到的跟踪结果区域;
步骤6:判断当前图像的帧数t是否小于3;若是,则执行步骤7;否则,执行步骤8;
步骤7:读取下一帧待跟踪视频图像序列作为当前帧图像;在当前帧中,以前一帧圈定跟踪结果区域的中心坐标为当前帧的中心点,以前一帧圈定跟踪结果区域对角线的1.5倍进行扩展作为当前帧的对角线长度,得到当前帧的匹配前景区域,然后返回步骤5;
步骤8:判断当前图像的帧数t是否大于6,若是,则执行步骤9,否则,执行步骤12;
步骤9:计算当前帧匹配到的各个最优匹配块P′tu与前一帧匹配到的各个最优匹配块P′(t-1)u之间的中心距离dtu,如下式所示,
<mrow>
<msub>
<mi>d</mi>
<mrow>
<mi>t</mi>
<mi>u</mi>
</mrow>
</msub>
<mo>=</mo>
<msqrt>
<mrow>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>x</mi>
<mrow>
<mi>t</mi>
<mi>u</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>x</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
<mi>u</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>y</mi>
<mrow>
<mi>t</mi>
<mi>u</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>y</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
<mi>u</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</msqrt>
<mo>;</mo>
</mrow>
其中,(xtu,ytu)为当前帧匹配到的第u个最优匹配块P′tu的中心点坐标,(x(t-1)u,y(t-1)u)为前一帧匹配到的第u个最优匹配块P′(t-1)u的中心点坐标;
步骤10:计算当前帧所有n2个最优匹配块与前一帧匹配到的各个最优匹配块之间的平均中心距离如下式所示,
<mrow>
<msub>
<mover>
<mi>d</mi>
<mo>&OverBar;</mo>
</mover>
<mi>t</mi>
</msub>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<msup>
<mi>n</mi>
<mn>2</mn>
</msup>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>u</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msup>
<mi>n</mi>
<mn>2</mn>
</msup>
</munderover>
<msub>
<mi>d</mi>
<mrow>
<mi>t</mi>
<mi>u</mi>
</mrow>
</msub>
<mo>;</mo>
</mrow>
步骤11:利用距离决策方法判断当前帧各个最优匹配块是否发生误匹配,并根据其遮挡情况,重新构造当前帧的匹配目标区域;
步骤12:根据当前图像的帧数判断是否需要对当前待跟踪视频图像的带权目标模型T′进行更新,具体方法为:
步骤12.1:判断当前图像的帧数t是否为5的倍数,若是,则更新当前待跟踪视频图像的带权目标模型,执行步骤12.2,否则,执行步骤12.3;
步骤12.2:根据当前帧的跟踪结果和当前带权目标模型的目标特征分布进行加权融合,得到待跟踪视频图像更新后的带权目标模型的目标特征分布,更新公式如下式所示,
T′update=aQt+(1-a)T′;
其中,Qt为当前帧跟踪结果中的目标特征分布,T′表示当前待跟踪视频图像的带权目标模型的特征分布,T′update为更新后的带权目标模型的特征分布,a为更新权重;
步骤12.3:将当前待跟踪视频图像的带权目标模型作为待跟踪视频图像更新后的带权目标模型;
步骤13:判断当前图像帧数t是否达到待跟踪视频图像序列的总个数tn,若是,则得到待跟踪视频图像序列的跟踪结果,否则,返回步骤7,进行下一帧视频图像的处理。
2.根据权利要求1所述的一种基于加权模型约束的寻优匹配目标跟踪方法,其特征在于:所述步骤2.3的具体方法为:
步骤2.3.1:根据局部特征块所在位置区域,将n2个局部特征块划分为h个分割层,排列方式为最外层为第一层,最内层(即中心局部块)为第h层;
步骤2.3.2:根据局部特征块所在的不同分割层,将局部特征块赋予不同权值,权值分配方式为
其中,k表示层数,k=1,2,...,h;h表示总层数,h=3、5或7;pk表示第k层局部特征块中的像素点;表示第k层局部特征块中的像素点所分配的权值;
步骤2.3.3:将初始目标模型T加权,构造带权目标模型T′,T′=C×T,
3.根据权利要求1所述的一种基于加权模型约束的寻优匹配目标跟踪方法,其特征在于:所述步骤5.2的具体匹配方法为:
步骤5.2.1:计算每个局部特征块Pu与当前帧的匹配前景区域中的每个局部特征块Qtm={qtmj}之间的最优相似距离,如下式所示,
<mrow>
<mi>d</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>p</mi>
<mrow>
<mi>u</mi>
<mi>i</mi>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>q</mi>
<mrow>
<mi>t</mi>
<mi>m</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mo>|</mo>
<mo>|</mo>
<msup>
<msub>
<mi>p</mi>
<mrow>
<mi>u</mi>
<mi>i</mi>
</mrow>
</msub>
<mi>A</mi>
</msup>
<mo>-</mo>
<msup>
<msub>
<mi>q</mi>
<mrow>
<mi>t</mi>
<mi>m</mi>
<mi>j</mi>
</mrow>
</msub>
<mi>A</mi>
</msup>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mn>2</mn>
<mn>2</mn>
</msubsup>
<mo>+</mo>
<mo>|</mo>
<mo>|</mo>
<msup>
<msub>
<mi>p</mi>
<mrow>
<mi>u</mi>
<mi>i</mi>
</mrow>
</msub>
<mi>L</mi>
</msup>
<mo>-</mo>
<msup>
<msub>
<mi>q</mi>
<mrow>
<mi>t</mi>
<mi>m</mi>
<mi>j</mi>
</mrow>
</msub>
<mi>L</mi>
</msup>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mn>2</mn>
<mn>2</mn>
</msubsup>
<mo>;</mo>
</mrow>
其中,d(pui,qtmj)表示第u个局部特征块Pu中的第i个像素点pui与当前帧的匹配前景区域中的第m个局部特征块Qtm中的第j个像素点qtmj之间的最优相似距离,j∈1,…,N;A表示颜色特征,即RGB,L表示纹理特征,即LBP;
固定u的值,求第u个局部特征块Pu中的像素点pui与当前帧的匹配前景区域中的所有局部特征块Qtm中的像素点qtmj之间的最优相似距离;然后固定m的值,求所有局部特征块Pu中的像素点pui与当前帧的匹配前景区域中的第m个局部特征块Qtm中的像素点qtmj之间的最优相似距离;
步骤5.2.2:计算集合Pu与Qtm之间的最优匹配对(Optimal Matching Pair,简称OMP),如下式所示,
<mrow>
<mi>O</mi>
<mi>M</mi>
<mi>P</mi>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>p</mi>
<mrow>
<mi>u</mi>
<mi>i</mi>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>q</mi>
<mrow>
<mi>t</mi>
<mi>m</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>P</mi>
<mi>u</mi>
</msub>
<mo>,</mo>
<msub>
<mi>Q</mi>
<mrow>
<mi>t</mi>
<mi>m</mi>
</mrow>
</msub>
</mrow>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<msub>
<mi>C</mi>
<msub>
<mi>p</mi>
<mrow>
<mi>u</mi>
<mi>i</mi>
</mrow>
</msub>
</msub>
</mtd>
<mtd>
<mrow>
<mi>N</mi>
<mi>N</mi>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>p</mi>
<mrow>
<mi>u</mi>
<mi>i</mi>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>Q</mi>
<mrow>
<mi>t</mi>
<mi>m</mi>
</mrow>
</msub>
</mrow>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msub>
<mi>q</mi>
<mrow>
<mi>t</mi>
<mi>m</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>&cap;</mo>
<mi>N</mi>
<mi>N</mi>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>q</mi>
<mrow>
<mi>t</mi>
<mi>m</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>P</mi>
<mi>u</mi>
</msub>
</mrow>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msub>
<mi>p</mi>
<mrow>
<mi>u</mi>
<mi>i</mi>
</mrow>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mrow>
<mi>N</mi>
<mi>N</mi>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>p</mi>
<mrow>
<mi>u</mi>
<mi>i</mi>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>Q</mi>
<mrow>
<mi>t</mi>
<mi>m</mi>
</mrow>
</msub>
</mrow>
<mo>)</mo>
</mrow>
<mo>&NotEqual;</mo>
<msub>
<mi>q</mi>
<mrow>
<mi>t</mi>
<mi>m</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>&cup;</mo>
<mi>N</mi>
<mi>N</mi>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>q</mi>
<mrow>
<mi>t</mi>
<mi>m</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>P</mi>
<mi>u</mi>
</msub>
</mrow>
<mo>)</mo>
</mrow>
<mo>&NotEqual;</mo>
<msub>
<mi>p</mi>
<mrow>
<mi>u</mi>
<mi>i</mi>
</mrow>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>;</mo>
</mrow>
其中,为像素点pui的权重, pu、qtm分别表示集合Pu、Qtm中的任意像素点;
步骤5.2.3:计算集合Pu与Qtm之间的最优匹配对期望值EOMP,如下式所示,
<mrow>
<msub>
<mi>E</mi>
<mrow>
<mi>O</mi>
<mi>M</mi>
<mi>P</mi>
</mrow>
</msub>
<mo>=</mo>
<munder>
<mrow>
<mo>&Integral;</mo>
<mo>&Integral;</mo>
</mrow>
<mrow>
<msub>
<mi>P</mi>
<mi>u</mi>
</msub>
<mo>,</mo>
<msub>
<mi>Q</mi>
<mrow>
<mi>t</mi>
<mi>m</mi>
</mrow>
</msub>
</mrow>
</munder>
<mi>O</mi>
<mi>M</mi>
<mi>P</mi>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>p</mi>
<mrow>
<mi>u</mi>
<mi>i</mi>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>q</mi>
<mrow>
<mi>t</mi>
<mi>m</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>P</mi>
<mi>u</mi>
</msub>
<mo>,</mo>
<msub>
<mi>Q</mi>
<mrow>
<mi>t</mi>
<mi>m</mi>
</mrow>
</msub>
</mrow>
<mo>)</mo>
</mrow>
<mi>p</mi>
<mi>r</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>P</mi>
<mi>u</mi>
</msub>
<mo>)</mo>
</mrow>
<mi>p</mi>
<mi>r</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>Q</mi>
<mrow>
<mi>t</mi>
<mi>m</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<msub>
<mi>dP</mi>
<mi>u</mi>
</msub>
<msub>
<mi>dQ</mi>
<mrow>
<mi>t</mi>
<mi>m</mi>
</mrow>
</msub>
<mo>;</mo>
</mrow>
其中,pr(Pu)、pr(Qtm)分别表示集合Pu、Qtm的条件概率函数;
步骤5.2.4:计算集合Pu与Qtm之间的最优相似匹配期望值EOSM,如下式所示,
<mrow>
<msub>
<mi>E</mi>
<mrow>
<mi>O</mi>
<mi>S</mi>
<mi>M</mi>
</mrow>
</msub>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mi>n</mi>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>n</mi>
</munderover>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>n</mi>
</munderover>
<msub>
<mi>E</mi>
<mrow>
<mi>O</mi>
<mi>M</mi>
<mi>P</mi>
</mrow>
</msub>
<mo>.</mo>
</mrow>
4.根据权利要求1所述的一种基于加权模型约束的寻优匹配目标跟踪方法,其特征在于:所述步骤11的具体方法为:
步骤11.1:利用距离决策方法判断当前帧各个最优匹配块是否发生误匹配,判断公式如下两式所示:
<mrow>
<msubsup>
<mover>
<mi>d</mi>
<mo>&OverBar;</mo>
</mover>
<mi>t</mi>
<mo>&prime;</mo>
</msubsup>
<mo>=</mo>
<mi>m</mi>
<mi>e</mi>
<mi>a</mi>
<mi>n</mi>
<mrow>
<mo>(</mo>
<msub>
<mover>
<mi>d</mi>
<mo>&OverBar;</mo>
</mover>
<mi>t</mi>
</msub>
<mo>,</mo>
<msub>
<mover>
<mi>d</mi>
<mo>&OverBar;</mo>
</mover>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mover>
<mi>d</mi>
<mo>&OverBar;</mo>
</mover>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>2</mn>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mover>
<mi>d</mi>
<mo>&OverBar;</mo>
</mover>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>3</mn>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mo>;</mo>
</mrow>
<mrow>
<msub>
<mi>D</mi>
<mi>t</mi>
</msub>
<mo>=</mo>
<mo>&lsqb;</mo>
<msubsup>
<mover>
<mi>d</mi>
<mo>&OverBar;</mo>
</mover>
<mi>t</mi>
<mo>&prime;</mo>
</msubsup>
<mo>&PlusMinus;</mo>
<mi>&Delta;</mi>
<msubsup>
<mover>
<mi>d</mi>
<mo>&OverBar;</mo>
</mover>
<mi>t</mi>
<mo>&prime;</mo>
</msubsup>
<mo>&rsqb;</mo>
<mo>;</mo>
</mrow>
其中,分别表示第t、t-1、t-2、t-3帧的最优匹配块与前一帧最优匹配块间的平均中心距离,表示连续相邻5帧的平均中心距离;表示距离误差范围,Dt表示决策范围;
若中心距离dtu不在决策范围Dt内,则认为相应的最优匹配块P′tu发生误匹配,执行步骤11.2;否则,认为相应的最优匹配块P′tu没有发生误匹配,执行步骤11.3;
步骤11.2:舍弃中心距离为dtu的最优匹配块P′tu,同时,利用平均中心距离估计被舍弃的最优匹配块位置,并与中心距离在决策范围Dt内的其他最优匹配块相结合来确定当前帧的跟踪结果;
步骤11.3:将当前帧的匹配结果作为当前帧的跟踪结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711029450.3A CN107833239B (zh) | 2017-10-26 | 2017-10-26 | 一种基于加权模型约束的寻优匹配目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711029450.3A CN107833239B (zh) | 2017-10-26 | 2017-10-26 | 一种基于加权模型约束的寻优匹配目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107833239A true CN107833239A (zh) | 2018-03-23 |
CN107833239B CN107833239B (zh) | 2021-05-18 |
Family
ID=61650056
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711029450.3A Active CN107833239B (zh) | 2017-10-26 | 2017-10-26 | 一种基于加权模型约束的寻优匹配目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107833239B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109087331A (zh) * | 2018-08-02 | 2018-12-25 | 阿依瓦(北京)技术有限公司 | 一种基于kcf算法的运动预测方法 |
CN110111362A (zh) * | 2019-04-26 | 2019-08-09 | 辽宁工程技术大学 | 一种局部特征块相似匹配目标跟踪方法 |
CN110555867A (zh) * | 2019-09-05 | 2019-12-10 | 杭州立宸科技有限公司 | 一种融合物体捕获识别技术的多目标物体跟踪方法 |
CN110648327A (zh) * | 2019-09-29 | 2020-01-03 | 无锡祥生医疗科技股份有限公司 | 基于人工智能的超声影像视频自动追踪方法和设备 |
CN110807377A (zh) * | 2019-10-17 | 2020-02-18 | 浙江大华技术股份有限公司 | 目标跟踪和入侵检测方法、装置、及存储介质 |
CN110856253A (zh) * | 2019-11-15 | 2020-02-28 | 北京三快在线科技有限公司 | 定位方法、装置、服务器及存储介质 |
CN111079775A (zh) * | 2018-10-18 | 2020-04-28 | 中国科学院长春光学精密机械与物理研究所 | 一种联合区域约束学习的实时跟踪方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102542551A (zh) * | 2010-12-13 | 2012-07-04 | 北京师范大学 | 极地冰盖边缘浮冰自动变化检测技术 |
CN103325122A (zh) * | 2013-07-03 | 2013-09-25 | 武汉大学 | 基于双向排序的行人检索方法 |
CN103440667A (zh) * | 2013-07-19 | 2013-12-11 | 杭州师范大学 | 一种遮挡状态下运动目标稳定追踪的自动装置 |
US9390506B1 (en) * | 2015-05-07 | 2016-07-12 | Aricent Holdings Luxembourg S.A.R.L. | Selective object filtering and tracking |
CN105938623A (zh) * | 2016-04-13 | 2016-09-14 | 南京维睛视空信息科技有限公司 | 一种基于双向反馈粒子滤波算法的实时二维目标跟踪方法 |
CN106327516A (zh) * | 2015-06-29 | 2017-01-11 | 北京雷动云合智能技术有限公司 | 一种基于外观模型的学习型视觉追踪方法 |
CN106780564A (zh) * | 2017-02-09 | 2017-05-31 | 辽宁工程技术大学 | 一种基于先验模型约束的抗干扰轮廓跟踪方法 |
CN106778478A (zh) * | 2016-11-21 | 2017-05-31 | 中国科学院信息工程研究所 | 一种基于混合特征的带缓存机制的实时行人检测与跟踪方法 |
-
2017
- 2017-10-26 CN CN201711029450.3A patent/CN107833239B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102542551A (zh) * | 2010-12-13 | 2012-07-04 | 北京师范大学 | 极地冰盖边缘浮冰自动变化检测技术 |
CN103325122A (zh) * | 2013-07-03 | 2013-09-25 | 武汉大学 | 基于双向排序的行人检索方法 |
CN103440667A (zh) * | 2013-07-19 | 2013-12-11 | 杭州师范大学 | 一种遮挡状态下运动目标稳定追踪的自动装置 |
US9390506B1 (en) * | 2015-05-07 | 2016-07-12 | Aricent Holdings Luxembourg S.A.R.L. | Selective object filtering and tracking |
CN106327516A (zh) * | 2015-06-29 | 2017-01-11 | 北京雷动云合智能技术有限公司 | 一种基于外观模型的学习型视觉追踪方法 |
CN105938623A (zh) * | 2016-04-13 | 2016-09-14 | 南京维睛视空信息科技有限公司 | 一种基于双向反馈粒子滤波算法的实时二维目标跟踪方法 |
CN106778478A (zh) * | 2016-11-21 | 2017-05-31 | 中国科学院信息工程研究所 | 一种基于混合特征的带缓存机制的实时行人检测与跟踪方法 |
CN106780564A (zh) * | 2017-02-09 | 2017-05-31 | 辽宁工程技术大学 | 一种基于先验模型约束的抗干扰轮廓跟踪方法 |
Non-Patent Citations (5)
Title |
---|
SAJID JAVED 等: "Background–Foreground Modeling Based on Spatiotemporal Sparse Subspace Clustering", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》 * |
刘万军 等: "前景划分下的双向寻优跟踪方法", 《中国图象图形学报》 * |
刘大千 等: "先验模型约束的抗干扰轮廓跟踪", 《中国图象图形学报》 * |
刘大千 等: "前景判别的局部模型匹配目标跟踪", 《中国图象图形学报》 * |
王飞 等: "加权局部特征结合判别式字典的目标跟踪", 《中国图象图形学报》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109087331A (zh) * | 2018-08-02 | 2018-12-25 | 阿依瓦(北京)技术有限公司 | 一种基于kcf算法的运动预测方法 |
CN111079775A (zh) * | 2018-10-18 | 2020-04-28 | 中国科学院长春光学精密机械与物理研究所 | 一种联合区域约束学习的实时跟踪方法 |
CN110111362A (zh) * | 2019-04-26 | 2019-08-09 | 辽宁工程技术大学 | 一种局部特征块相似匹配目标跟踪方法 |
CN110555867A (zh) * | 2019-09-05 | 2019-12-10 | 杭州立宸科技有限公司 | 一种融合物体捕获识别技术的多目标物体跟踪方法 |
CN110555867B (zh) * | 2019-09-05 | 2023-07-07 | 杭州智爱时刻科技有限公司 | 一种融合物体捕获识别技术的多目标物体跟踪方法 |
CN110648327A (zh) * | 2019-09-29 | 2020-01-03 | 无锡祥生医疗科技股份有限公司 | 基于人工智能的超声影像视频自动追踪方法和设备 |
CN110648327B (zh) * | 2019-09-29 | 2022-06-28 | 无锡祥生医疗科技股份有限公司 | 基于人工智能的超声影像视频自动追踪方法和设备 |
CN110807377A (zh) * | 2019-10-17 | 2020-02-18 | 浙江大华技术股份有限公司 | 目标跟踪和入侵检测方法、装置、及存储介质 |
CN110807377B (zh) * | 2019-10-17 | 2022-08-09 | 浙江大华技术股份有限公司 | 目标跟踪和入侵检测方法、装置、及存储介质 |
CN110856253A (zh) * | 2019-11-15 | 2020-02-28 | 北京三快在线科技有限公司 | 定位方法、装置、服务器及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN107833239B (zh) | 2021-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107833239A (zh) | 一种基于加权模型约束的寻优匹配目标跟踪方法 | |
CN110837778B (zh) | 一种基于骨架关节点序列的交警指挥手势识别方法 | |
Tang et al. | Deeply learned compositional models for human pose estimation | |
CN108830150B (zh) | 一种基于三维人体姿态估计方法及装置 | |
CN106407889B (zh) | 基于光流图深度学习模型在视频中人体交互动作识别方法 | |
CN105512680B (zh) | 一种基于深度神经网络的多视sar图像目标识别方法 | |
CN108960059A (zh) | 一种视频动作识别方法及装置 | |
CN104835178B (zh) | 一种低信噪比运动小目标的跟踪与识别的方法 | |
CN107609460A (zh) | 一种融合时空双重网络流和attention机制的人体行为识别方法 | |
CN110147743A (zh) | 一种复杂场景下的实时在线行人分析与计数系统及方法 | |
CN103310466B (zh) | 一种单目标跟踪方法及其实现装置 | |
CN104615983A (zh) | 基于递归神经网络和人体骨架运动序列的行为识别方法 | |
CN106845499A (zh) | 一种基于自然语言语义的图像目标检测方法 | |
CN105574510A (zh) | 一种步态识别方法及装置 | |
CN104933417A (zh) | 一种基于稀疏时空特征的行为识别方法 | |
CN109671102A (zh) | 一种基于深度特征融合卷积神经网络的综合式目标跟踪方法 | |
CN108537818A (zh) | 基于集群压力lstm的人群轨迹预测方法 | |
CN108549866B (zh) | 基于密集卷积神经网络的遥感飞机识别方法 | |
CN110473231A (zh) | 一种具有预判式学习更新策略的孪生全卷积网络的目标跟踪方法 | |
CN110334656A (zh) | 基于信源概率加权的多源遥感图像水体提取方法及装置 | |
CN107730536A (zh) | 一种基于深度特征的高速相关滤波物体追踪方法 | |
CN109657634A (zh) | 一种基于深度卷积神经网络的3d手势识别方法及系统 | |
CN107967449B (zh) | 一种基于广义证据理论的多光谱图像未知目标识别方法 | |
CN114998890B (zh) | 一种基于图神经网络的三维点云目标检测算法 | |
Xu et al. | Investigate indistinguishable points in semantic segmentation of 3d point cloud |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |